WO2014050956A1 - 撮影機器、撮影システム、撮影方法及び撮影制御プログラム - Google Patents

撮影機器、撮影システム、撮影方法及び撮影制御プログラム Download PDF

Info

Publication number
WO2014050956A1
WO2014050956A1 PCT/JP2013/076037 JP2013076037W WO2014050956A1 WO 2014050956 A1 WO2014050956 A1 WO 2014050956A1 JP 2013076037 W JP2013076037 W JP 2013076037W WO 2014050956 A1 WO2014050956 A1 WO 2014050956A1
Authority
WO
WIPO (PCT)
Prior art keywords
metadata
unit
description language
captured image
data
Prior art date
Application number
PCT/JP2013/076037
Other languages
English (en)
French (fr)
Inventor
利廣 尾方
晴之 石原
野中 修
Original Assignee
オリンパスイメージング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスイメージング株式会社 filed Critical オリンパスイメージング株式会社
Priority to JP2014538583A priority Critical patent/JP6059239B2/ja
Publication of WO2014050956A1 publication Critical patent/WO2014050956A1/ja
Priority to US14/657,836 priority patent/US9973649B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32106Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title separate from the image data, e.g. in a different computer file
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00095Systems or arrangements for the transmission of the picture signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/24Details of cameras or camera bodies; Accessories therefor with means for separately producing marks on the film, e.g. title, time of exposure

Definitions

  • the present invention relates to a photographing apparatus, a photographing system, a photographing method, and a photographing control program suitable for photographing a photographed image for uploading.
  • photographing devices such as a digital camera have various photographing functions by making full use of image processing.
  • Some photographing devices have a communication function, and an image obtained by photographing can be transmitted to another device or a network.
  • auxiliary data other than the image such as information on the shooting date and time and the shooting location, is recorded as a file together with the image. That is, the image file is composed of image data and auxiliary data, and the image file can be edited after recording.
  • auxiliary data Exif (Exchangeable image file format) data based on a binary format or a tag format is generally adopted so that high-speed processing can be performed in the photographing device.
  • Japanese Patent Application Laid-Open No. 2005-217505 discloses a technique for converting data in Exif format into data in XML (Extensible Markup Language) using communication software or image management software.
  • auxiliary data can be composed of text data with high versatility in the photographic equipment, the burden of creating data in text format is heavy, and auxiliary data being shot during continuous shooting or movie shooting, etc. There is a risk that it will be difficult to create.
  • the present invention relates to a photographing apparatus, a photographing system, a photographing method, and photographing control capable of promoting effective use of auxiliary data externally while enabling high-speed processing by converting auxiliary data into easy-to-use data when transmitting an image file.
  • the purpose is to provide a program.
  • An imaging device includes an imaging unit that outputs a captured image obtained by imaging a subject, a metadata creation unit that creates metadata based on a tag format when the captured image is recorded, and the captured image
  • a communication unit that can transmit to the external device, a metadata update unit that converts the metadata created by the metadata creation unit into a data description language, and created by the metadata update unit when the captured image is transmitted
  • a transmission control unit that causes the communication unit to transmit the metadata to the external device.
  • an imaging system includes an imaging unit that outputs a captured image obtained by imaging a subject, a metadata generation unit that generates metadata based on a tag format when the captured image is recorded, and the above
  • An imaging device including a communication unit capable of transmitting a captured image to an external device, and a transmission control unit configured to transmit the metadata created by the metadata creation unit to the external device by the communication unit when transmitting the captured image.
  • a device, and the external device including a metadata update unit that receives the metadata from the photographing device and converts the received metadata into a data description language in accordance with a request from the photographing device.
  • an imaging method includes an imaging step of outputting a captured image obtained by imaging a subject, a metadata generation step of generating metadata based on a tag format when recording the captured image, A communication step for transmitting a captured image to an external device, a metadata update step for converting the metadata created in the metadata creation step into a data description language, and a creation in the metadata update step during transmission of the captured image A transmission control step of transmitting the metadata to the external device in the communication step.
  • an imaging control program includes an imaging step for outputting a captured image obtained by imaging a subject to a computer, and metadata generation for generating metadata based on a tag format when the captured image is recorded.
  • a communication step for transmitting the captured image to an external device, a metadata updating step for converting the metadata created in the metadata creating step into a data description language, and the metadata at the time of transmitting the captured image
  • a transmission control step for transmitting the metadata created in the update step to the external device in the communication step;
  • FIG. 1 is a block diagram showing a circuit configuration of a photographing apparatus according to a first embodiment of the present invention.
  • Explanatory drawing for demonstrating the format of the image file employ
  • FIG. 1 is a block diagram showing a circuit configuration of the photographing apparatus according to the first embodiment of the present invention.
  • metadata recording in binary format such as Exif format or tag format is performed.
  • the image file based on one captured image is composed of image data and metadata of the captured image.
  • FIG. 2 is an explanatory diagram for explaining the format of the image file employed in the present embodiment.
  • FIG. 2A shows an image format at the time of recording, and an image file is composed of image data P and auxiliary data (metadata) Mr.
  • Metadata is data other than content (here, an image), and enables users and applications to handle content more efficiently. For example, information on the size of an image or creation Property information such as the date of creation or creation date may be included.
  • the metadata Mr has one APP segment SG1
  • the APP segment SG1 includes data string identification information and a data string.
  • Binary format data is adopted as the data sequence, and information indicating that the data sequence is binary format data is described in the identification information.
  • the binary data string includes a standard data string and a manufacturer note.
  • the standard data string includes standardized information such as shooting information, for example, exposure time, aperture value, exposure program, ISO sensitivity, shooting date and time information, and the like.
  • the manufacturer note can include various information not included in the standard data string. For example, in the maker note, it is possible to describe arbitrary information such as information on the feature amount of the face of the photographed person, the recognition result of the face, and the name obtained from the face recognition result.
  • binary format data when transmitting an image file, binary format data is converted into a language that can be easily used by many devices and users.
  • a binary data string is changed to a data description language (text description language), which is a language that is particularly advantageous when handling various data on the Internet.
  • XMP format data described in text for example, XML format data is employed as the data description language.
  • FIG. 2B shows an image format at the time of such image communication, and the image file is composed of image data P and metadata Ms.
  • the metadata Ms has two APP segments SG1 and SG2, and the contents of the APP segment SG1 are the same as the APP segment SG1 at the time of recording.
  • the APP segment SG2 includes a data description language data string obtained by changing the data string information of the APP segment SG1 to a data description language.
  • the data string identification information includes information indicating that the data description language data string is described in the data description language.
  • the photographing apparatus 10 has an imaging unit 12 constituted by an imaging element such as a CCD or a CMOS sensor.
  • the imaging unit 12 includes a lens 12a that is provided on the front surface of the imaging device 10 and captures a subject image, and an imaging element 12b that photoelectrically converts the subject image from the lens 12a to obtain a captured image signal.
  • the imaging unit 12 is driven and controlled by the signal processing and control unit 11 to capture a subject through the lens 12a and output a captured image.
  • the signal processing and control unit 11 outputs a drive signal for the image sensor 12 b to the image capturing unit 12 and reads a captured image from the image capturing unit 12.
  • the signal processing and control unit 11 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the read captured image.
  • the photographing device 10 is also provided with a clock unit 13 and an operation determination unit 14.
  • the clock unit 13 generates time information used by the signal processing and control unit 11.
  • the operation determination unit 14 generates an operation signal based on a user operation with respect to an operation unit including a release button, a function button, and various switches such as a shooting mode setting (not shown) provided in the photographing apparatus 10, and a signal processing and control unit 11 is output.
  • the signal processing and control unit 11 controls each unit based on the operation signal.
  • the display control unit 11a of the signal processing and control unit 11 executes various processes related to display.
  • the display control unit 11 a can give the captured image after the signal processing to the display unit 16 and the eyepiece display unit 18.
  • the display unit 16 and the eyepiece display unit 18 each have a display screen such as an LCD, and display an image provided from the display control unit 11a.
  • the display control part 11a can also display various menu displays etc. on these display screens.
  • the photographing device 10 is provided with a touch panel 17.
  • a touch panel 17 For example, by providing the touch panel 17 on the display screen of the display unit 16, it is possible to generate an operation signal corresponding to the position on the display screen pointed by the user with a finger. As a result, the user can easily perform a selection operation or the like on the image displayed on the display screen of the display unit 16.
  • the display unit 16 is disposed so as to occupy substantially the entire rear surface of the photographing apparatus 10 (see FIG. 3), and the photographer can display a through image displayed on the display screen of the display unit 16 at the time of photographing. Can be confirmed, and shooting operations can be performed while checking through images.
  • the eyepiece sensor 21 is also provided in the photographing apparatus 10.
  • the eyepiece sensor 21 is constituted by, for example, a retina sensor or the like, and is capable of recognizing a photographer's retina. Note that the eyepiece sensor 21 may be a sensor that recognizes the photographer through image recognition of the photographer.
  • the signal processing and control unit 11 can compress the captured image after the signal processing and give the compressed image to the recording / reproducing unit 15 for recording.
  • the recording / reproducing unit 15 for example, a card interface can be adopted.
  • the recording / reproducing unit 15 records image information, audio information, and the like on a recording medium such as a memory card, and images and audio recorded on the recording medium. Information can also be read and reproduced.
  • the signal processing and control unit 11 controls each unit to set a shooting mode based on a user operation and realize a shooting function according to each shooting mode. For example, the signal processing and control unit 11 can set the transmission mode when an operation signal for instructing the transmission mode (network sharing mode) of the image file is input from the operation determination unit 14 or the like. ing.
  • the metadata creation unit 11e of the signal processing and control unit 11 creates metadata when taking a captured image from the imaging unit 12. At the time of shooting a captured image, the metadata creation unit 11e creates binary format Mr, as shown in FIG. The signal processing and control unit 11 creates an image file composed of the image data P and the metadata Mr and records it to the recording / reproducing unit 15 for recording the captured image.
  • the communication device 19 is provided in the photographing device 10.
  • the communication unit 19 is controlled by the transmission control unit 11g and can communicate with an external device (not shown) to send and receive information.
  • the communication unit 19 can employ various transmission paths, such as a wired transmission path employing a wired cable such as a LAN, a wireless LAN, Bluetooth (registered trademark), WiMAX, a telephone line network, or the like.
  • a wireless transmission path or the like can be used.
  • the transmission control unit 11g of the signal processing and control unit 11 sets the metadata update unit 11f.
  • the metadata Mr included in the designated image file is read from the recording / playback unit 15 to generate new metadata Ms converted from the binary format data into the data description language.
  • the transmission control unit 11g gives the changed metadata to the recording / playback unit 15 to update the image file, and gives the image file including the metadata converted into the data description language to the communication unit 19 to be a predetermined transmission destination.
  • the communication unit 19 may transmit only the APP segment SG2 described in the data description language as metadata, and both the APP segment SG1 in the binary format and the APP segment SG2 in the data description language. May be sent.
  • the transmission control unit 11g may control the metadata update unit 11f to generate information that is not described in the binary format metadata Mr, and additionally record the information in the metadata Ms in the data description language. An image file including newly created metadata Ms can be transmitted.
  • the signal processing and control unit 11 is provided with a face determination unit 11b, a character determination unit 11c, and a scene / motion determination unit 11d.
  • the face determination unit 11b detects the face of a person in the captured image by a known face detection method.
  • the face determination unit 11b may employ a technique for detecting a person's face by sequentially comparing a plurality of grayscale images obtained by modeling facial brightness characteristics with captured images.
  • the face determination unit 11b can determine the facial expression by using a database (not shown) that stores the mouth angle, the corner of the eye corner, and the shadow characteristics of the facial parts in the case of a smile, for example.
  • the face determination unit 11b can determine the age, sex, and the like of the photographed person by using a database (not shown) that stores the facial feature quantities of a large number of persons. Furthermore, the face determination unit 11b can determine the name of the photographed person by associating and storing the facial feature quantity and the name input by the user.
  • the character determination unit 11c extracts characters from the captured image by character recognition processing on the characters in the captured image.
  • the scene / motion determination unit 11d detects a scene, a motion of an object in the captured image, and the like from the captured image.
  • the signal processing and control unit 11 may determine the color or shape in the captured image. Note that the movement of the object needs to be acquired from the through image, and information based on the movement of the object is recorded in, for example, a manufacturer note at the time of shooting.
  • the metadata update unit 11f generates metadata according to these determination results using a data description language, and updates the image file. For example, when the face determination unit 11b determines the name of a person in the captured image from the facial feature amount, the metadata update unit 11f describes the name of the person existing in the captured image as metadata. For example, when the title of the captured compact disc (CD) is detected by the character determination unit 11c, the metadata update unit 11f may generate text metadata such as “Schubert CD”. Good. Further, from the determination result of the color and shape of the captured image, the metadata update unit 11f can generate text such as “landscape in green” and “red sunset” as metadata. Further, the metadata update unit 11 f may generate the photographer's text information as metadata based on the detection result of the eye sensor 21.
  • the metadata creation unit 11e If there is no problem in processing capability, the metadata creation unit 11e generates metadata based on the determination results of these determination units 11b to 11d in binary format during imaging or before transmission of the image file. May be.
  • the metadata update unit 11f updates the metadata by changing the created metadata to the data description language when the file is transmitted.
  • the metadata updating unit 11f not only simply changes the binary metadata to the data description language, but also uses the binary metadata and the determination results determined from the images by the determination units 11b to 11d, New metadata may be generated by a data description language.
  • the metadata update unit 11f may generate text such as “Natsu no Shinshu” or “New Year's day in Japan” using the shooting date and time and latitude / longitude information in the binary metadata. Good.
  • the database 20 is provided in the photographing apparatus 10.
  • the database 20 has a dictionary function for converting to text using numerical values, image shape, color information, and the like. By using such a database 20, it is possible to provide the user with richer and easier-to-handle information from information such as color, shape, position, and date included in image data and metadata.
  • the metadata update unit 11f can be easily performed by referring to the database 20 describing, for example, the relationship between binary data and text, the relationship between various determination results and text, and the like.
  • the metadata updating unit 11f employs the database 20 describing the relationship between the text that is the source of the metadata to be converted into text and the text. In the following description, it is assumed that metadata is updated.
  • auxiliary data for managing the image file may be recorded separately from the image file.
  • auxiliary data describing which group the image file belongs to, and the like.
  • such auxiliary data can also be transmitted in a data description language, and for the sake of simplification of description, the metadata includes such auxiliary data.
  • the transmission control unit 11g performs different security settings for transmission of metadata according to the type of transmission destination.
  • the transmission control unit 11g classifies the transmission destination device into three types: a specific device, a device in a limited network, and a device in a public network, and determines transmission contents for each type. It is like that.
  • the transmission control unit 11g transmits all metadata as it is to a specific device, and, for devices in a limited network, transmits a part of the metadata excluding some data, and is released. For the devices in the network, only a part of the metadata is transmitted. Further, the transmission control unit 11g may process the metadata after transmission according to the type of the transmission destination.
  • FIG. 3 is an explanatory diagram for explaining the operation of the embodiment
  • FIG. 4 is an explanatory diagram for explaining the conversion of metadata.
  • 5 to 9 are flowcharts for explaining the operation of the embodiment.
  • FIG. 5 shows camera control.
  • the signal processing and control unit 11 determines whether or not the shooting mode is set. Assume that the shooting mode is instructed. In this case, the signal processing and control unit 11 performs through image display and face determination in step S21.
  • the signal processing and control unit 11 takes a photographed image from the imaging unit 12 and performs predetermined signal processing.
  • the signal processing and control unit 11 outputs the captured image after the signal processing to the face determination unit 11b, and gives the captured image after the signal processing to the display unit 16 to display a through image.
  • the signal processing and control unit 11 determines various shooting conditions in step S22.
  • the signal processing and control unit 11 determines information such as an exposure time, an aperture value, an exposure program, ISO sensitivity, and shooting date / time, which are sources of metadata creation.
  • the signal processing and control unit 11 determines whether or not there is a photographing operation in step S23. Here, it is assumed that the photographer performs photographing by operating the release button or the like. If it does so, the signal processing and control part 11 will transfer to the following step S24, and will image
  • FIG. 3A shows a state in which a shooting operation is performed.
  • the photographer 31 holds the photographing device 10 toward the subject 35.
  • the photographer 31 holds the photographing device 10 with the right hand 32R and the left hand 32L, and takes a picture while viewing the through image displayed on the display screen 16a of the display unit 16.
  • the captured image from the imaging unit 12 is supplied to the signal processing and control unit 11 and subjected to predetermined signal processing. Further, the metadata creation unit 11e creates metadata SG1 based on the face determination result, the shooting condition determination result, and the like (step S25). As described above, binary-format metadata is created at the time of shooting. Note that the metadata creation unit 11e creates not only a binary standard data string but also a manufacturer note in order to increase the distance of the subject and the amount of color information as much as possible.
  • the signal processing and control unit 11 records an image file composed of image data and metadata.
  • step S26 the signal processing and control unit 11 gives the recorded captured image to the display unit 16 to display the REC view (confirmation display).
  • the photographer 31 confirms the REC view display, and makes it easy to operate the touch panel 17 disposed on the display screen 16a by hand. Hold horizontally.
  • the signal processing and control unit 11 determines whether or not a predetermined time has elapsed from the REC view display in step S27, and determines whether or not a share button operation for shifting to the network sharing mode has been performed in step S28. .
  • FIG. 3B shows a REC view image 41 displayed on the display screen 16a.
  • the operation icon 42 is displayed as a share button by the display control unit 11a. Is shown.
  • the REC view image 41 includes a person image 41 and a tree and mountain background image 41b.
  • An operation icon 42 is displayed at the end on the display screen 16a.
  • the signal processing and control unit 11 may automatically display an operation icon 42 that is a share button every time shooting is performed, and the user may use an acceleration sensor (not shown) provided in the shooting device 10 to display the operation icon 42.
  • An operation icon may be displayed by detecting that the photographing apparatus 10 is tilted horizontally after photographing.
  • the signal processing and control unit 11 sets the network sharing mode (step S29).
  • the display control unit 11a displays selection icons 43 to 45 for determining the type of transmission destination.
  • the selection icon 43 is for specifying a specific device as the type of transmission destination
  • the selection icon 44 is for specifying a device in the network limited as the type of transmission destination.
  • the icon 45 is for designating a device in the public network as the type of transmission destination.
  • FIG. 6 shows a specific flow of the network sharing process in steps S29 and S8 of FIG.
  • the imaging device 10 automatically transmits an image file to the outside via the communication unit 19 according to the flow of FIG.
  • the transmission control unit g11 determines whether inter-device communication is selected in step S31 of FIG. If inter-device communication is selected, the transmission control unit 11g determines a communication candidate in the next step 32, and performs an authentication operation in step S33. When authentication is performed between the communication unit 19 and the communication candidate device, the transmission control unit 11g converts the metadata into a data description language in step S34, and transmits the metadata to the counterpart device (step S35).
  • FIG. 7 is a flowchart showing a specific example of the process of step S34 of FIG.
  • FIG. 4 (a) shows the recorded contents of metadata before transmission.
  • 4A indicates the recording position on the recording medium of the metadata in the image file recorded by the recording / playback unit 15, and Data indicates the recording content at the recording position defined by the address. .
  • the recording position of the metadata on the recording medium is defined according to the item to be described.
  • the database 20 describes the relationship between the recording position of the metadata on the recording medium and the item to be described, and the metadata update unit 11f has an item (target data) that can be converted into a data description language. Then, the process proceeds from step S61 to step S62, and the database 20 is referred to.
  • the metadata update unit 11f refers to the database 20 and converts the address in the metadata into an item name (data name) in a text format (step S63). In addition, the metadata update unit 11f refers to the database 20 and converts Data in the metadata into data content in text format (step S64). The metadata update unit 11f generates metadata based on the item names and data contents converted into text. Thus, the APP segment SG2 of FIG. 2B is generated (step S65).
  • FIG. 4B shows metadata converted into text, and the metadata describes item names and data corresponding to each item name in text.
  • each address in FIG. 4A is converted into item names Name1, Name2,...
  • each binary Data in FIG. 4A is converted into text DATA1, DATA2,. Yes.
  • the metadata may have a hierarchical structure.
  • the item name Name5 has the item name Name6 in the lower hierarchy.
  • the metadata update unit 11f refers to the next item (other data) and repeats the processes of steps S61 to S66.
  • the process returns to step S35 in FIG. 6, and the transmission control unit 11g controls the communication unit 19 to transmit the image file.
  • the received image file can be displayed, edited, searched, and the like on the specific device to which the image file has been transferred.
  • the received metadata is converted into a data description language, and the metadata can be used by various kinds of software.
  • the specific device for example, another device such as a personal computer or a smartphone owned by the owner of the photographing device 10 is conceivable, and this owner uses the image file from the photographing device 10 in another device.
  • the use of text languageized metadata facilitates the use of search, editing, and the like.
  • Metadata is described in a data description language such as XML format, it can be easily managed by assigning names and parameters to data, and there is a high degree of freedom in rearranging and hierarchical representation. This makes it easy for anyone to use, has good compatibility with computers, the Internet, and home information appliances, can be used by browsers, is easy to handle data from programs, and has high development efficiency in terms of service improvement. There is.
  • the transmission control unit 11g detects this operation in step S41 of FIG. 6, the transmission control unit 11g sets a transmission destination in step S42.
  • the transmission control unit 11g sets an SNS (social networking service) registered in advance as a transmission destination, and performs an authentication operation (step S43).
  • SNS social networking service
  • the transmission control unit g11 converts the place and time into text in step S44 of FIG. 6 and transmits it (step S45).
  • the metadata update unit 11f is controlled by the transmission control unit 11g to convert only the items related to the place and the items related to the time into the data description language among various items in the metadata.
  • FIG. 8 is a flowchart showing a specific example of the process of step S44 of FIG.
  • the database 20 describes text corresponding to GPS information and text corresponding to date information.
  • the metadata update unit 11f is controlled by the transmission control unit 11g and refers to the database 20 in step S72 when GPS information exists (step S71).
  • the metadata update unit 11f converts the GPS information into text such as a country, prefecture, municipality name, or local name based on the description in the database 20 (step S73). Note that the metadata update unit 11f may simply convert the latitude and longitude based on the GPS information into text.
  • the metadata update unit 11f is controlled by the transmission control unit 11g and refers to the database 20 in step S75 when date information exists (step S74).
  • the metadata update unit 11f converts date information into text such as seasons such as spring, summer, autumn and winter, Christmas, New Year, and holidays based on the description in the database. Further, the metadata update unit 11f may convert the birthday information in the captured image into text from the date information. Further, the metadata update unit 11f may simply convert the date and time based on the date information into text.
  • the database 20 referred to by the metadata update unit 11f may describe texts in a plurality of languages. Accordingly, the metadata update unit 11f can convert the text into the language of each country, or can convert the text into the language specified by the user.
  • the process returns to step S35 in FIG. 6, and the transmission control unit 11g controls the communication unit 19 to transmit the image file.
  • the transmission control unit 11g transmits only the data updated by the metadata update unit 11f as metadata.
  • SNS for example, only information regarding the region and the date and time is transmitted as metadata. If SNS is selected, it can be considered that the image is shared by a device such as a friend, and metadata such as the shooting location and shooting date / time is converted into a data description language like a photograph taken during a trip with a friend. By doing so, the use of these data can be simplified. On the other hand, by not transmitting other data, personal information and the like can be protected.
  • step S51 of FIG. 6 the transmission control unit 11g sets a transmission destination in step S52.
  • the transmission control unit 11g sets a pre-registered blog or image posting site as a transmission destination, and performs an authentication operation (step S53).
  • step S51 if an image publication selection operation is not detected, a warning is issued after the predetermined time has elapsed (step S58).
  • an unspecified number of users can share an image.
  • an image file made up of image data and search metadata is uploaded. This is because, for example, a user who is not familiar with the photographer often wants to search for an image depending on the photographing object, the photographing location, the season, and the like.
  • the transmission control unit g11 converts the search data as metadata into text in step S54 of FIG. 6 and transmits it (step S55). That is, in this case, the metadata update unit 11f is controlled by the transmission control unit 11g to convert only the items suitable for the search from the various items in the metadata into a data description language, thereby reducing the transmission data amount. While reducing, the convenience of the user who uses the published image is improved and the personal information can be protected. As items suitable for the search, items related to so-called 5W1H information can be considered. However, in consideration of the point of disclosure, it is better not to transmit information regarding “who”.
  • FIG. 9 is a flowchart showing a specific example of the process of step S54 of FIG.
  • the database 20 describes text corresponding to character reading information, text corresponding to face information, text corresponding to scene information, and text corresponding to subject analysis information.
  • the metadata update unit 11f is controlled by the transmission control unit 11g, and converts the place and time into text using, for example, the same method as in FIG. 8 (step S81).
  • text conversion is performed in consideration of the security of personal information. For example, text such as a country name or a prefecture name is generated based on GPS information so that an individual cannot be specified. In addition, when date information includes personal birthday information, the date information is not converted into text.
  • the metadata update unit 11f refers to the database 20 (step S83) and converts the read characters into text (step S84). For example, a station name included in an image is converted into text, which can be easily used for map search or the like.
  • the metadata update unit 11f refers to the database 20 (step S86) and performs text conversion based on the face information (step S87). For example, the gender, age, number of people, etc. of the person included in the image are converted into text. For example, when it is detected from the facial feature quantity that a baby is present in the captured image, the text “baby” is described in the metadata.
  • the metadata update unit 11f refers to the database 20 (step S89) and performs text conversion based on the scene information (step S90). For example, information on whether the image is a sunset scene or a mountain range scene is converted into text. Further, the metadata update unit 11f may detect each scene using the shape, position, color, GPS information, and the like, and by converting these scenes into text, It becomes possible to easily search for a corresponding image.
  • the metadata update unit 11f refers to the database 20 (step S92), and performs text conversion based on the subject analysis information (step S93). For example, when it is detected that the subject is a pet, an animal, a bird, etc., the information can be converted into text, so that it is easy to search for an image using an animal name as a keyword on an image posting site or the like. Is possible.
  • the network sharing mode is set not only during shooting but also during playback. If the shooting mode is not designated in step S1 of FIG. 5, the signal processing and control unit 11 determines whether or not the reproduction mode is instructed in step S2. When the reproduction mode is instructed, the signal processing and control unit 11 reads the image recorded in the recording / reproducing unit 15, performs predetermined signal processing such as expansion processing, and then gives the image to the display unit 16. Is reproduced and displayed (step S3).
  • step S4 the signal processing and control unit 11 determines whether or not the reproduction of the metadata is instructed.
  • the content of the metadata is displayed on the display unit 16 ( Step S5).
  • the signal processing and control unit 11 determines whether or not an operation for returning the reproduction mode to the original is performed in step S6, and when the operation is performed, the process returns to step S2. If the operation for returning the playback mode is not performed, the display control unit 11a displays the operation icon 42 on the display screen 16a as a share button, and determines whether or not a share button operation has occurred in step S7. judge.
  • the signal processing and control unit 11 determines whether or not there is a change operation for designating another image (step S9), and if there is a change operation, it is specified.
  • the other image is read out and subjected to predetermined signal processing such as expansion processing, and then given to the display unit 16 for reproduction and display (step S10).
  • the signal processing and control unit 11 shifts to the network sharing mode in step S8.
  • the operation in the network sharing mode is the same as that in step S29. If the signal processing and control unit 11 determines that the reproduction mode is not instructed in step S2, the signal processing and control unit 11 performs image reception and writing back processing in step S11.
  • the recorded binary metadata is converted into a data description language at the time of transmission.
  • Binary data is used at the time of recording, and metadata processing is easy in the photographing device.
  • it is converted into a data description language having excellent versatility and transmitted, so that the transmitted image file can be easily used.
  • the metadata to be transmitted is changed according to the transmission destination, and the security is excellent.
  • Text search is not widespread in general cameras, but text search is mainstream in computers, and XML format description is frequently used in the Internet and the like.
  • the data description language can be changed at an arbitrary timing after shooting and before transmission. Also good.
  • FIG. 10 is a block diagram showing a second embodiment of the present invention.
  • the same components as those in FIG. 10 are identical to FIG. 10 in FIG. 10, the same components as those in FIG. 10.
  • the photographing device 30 In the first embodiment, in the photographing device 30, all metadata is created in the photographing device 30, and all of the metadata to be transmitted is converted into a data description language in the photographing device 30. However, if the amount of metadata creation and update processing is relatively large, or considering the size of the database required for text conversion, etc., it is better to perform some or all of the data description language on the server Good thing is considered. The present embodiment takes this case into consideration.
  • the metadata creation unit 11e performs only a metadata creation process with a relatively small processing amount when creating metadata, and does not perform a metadata creation process with a relatively large processing amount.
  • the transmission control unit 51g controls the metadata update unit 11f to only create and update metadata with a relatively small processing amount, and metadata with a relatively large processing amount. Is not created or updated.
  • the transmission control unit 51g requests the specific devices 60, the servers 53 and 54 on the network 50, and the like to create / update metadata, and also sends information necessary for creating / updating metadata to these items. It is provided to a specific device 60 and servers 53 and 54.
  • the communication unit 19 can communicate with a specific device 60 via a closed network, and can transmit information specified by the transmission control unit 51g to the specific device 60.
  • the communication unit 19 can communicate with, for example, a wireless LAN hot spot 52 and transmits information designated by the transmission control unit 51 g to the servers 53 and 54 on the network 50 via the hot spot 52. can do.
  • the specific device 60 includes a database (not shown) for converting metadata into a data description language according to the flow shown in FIG. 7, for example, so that the metadata can be converted into a data description language.
  • the SNS server 53 has a text creation unit 53a for generating metadata in a data description language.
  • the text creation unit 53a refers to a text DB (database) 53b for generating text serving as metadata, and generates text metadata using data transmitted from the photographing device 30.
  • the image posting server 54 also has a text creation unit 54a for generating metadata in a data description language.
  • the text creation unit 54a refers to a text DB (database) 54b for generating text as metadata, and generates text metadata using data transmitted from the photographing device 30.
  • the transmission control unit 51g transmits only the facial feature amount as metadata.
  • the transmission control unit 51g transmits only the facial feature amount as metadata.
  • the signal processing and control unit 11 can write back an image file from the specific device 60 and the servers 53 and 54, and includes an image file including metadata acquired by the specific device 60 and the servers 53 and 54. Can be recorded by the recording / reproducing unit 15.
  • FIG. 11 is a flowchart showing an operation flow of the network sharing mode.
  • FIG. 12 is a flowchart showing an operation flow on the server side.
  • the content of the metadata creation request is changed according to the type of the transmission destination.
  • the transmission control unit 51g classifies the destination device into three types: a specific device (server), a device (server) in a limited network, and a device (server) in a public network.
  • the contents of the request and the contents of the metadata to be transmitted are determined every time.
  • the transmission control unit 51g requests, for example, a specific device 60 to convert the metadata into a data description language in step S104.
  • the transmission control unit 51g transmits the binary format metadata to the specific device 60 in step S35 together with the request information.
  • the transmission control unit 51g When the user selects SNS transmission, the transmission control unit 51g requests the text of the place, time, and name in step S105. In this case, the transmission control unit 51g transmits metadata related to the facial feature amount to, for example, the server 53 in addition to the information on the request, in addition to the binary GPS information and date information, in step S54.
  • the transmission control unit 51g requests text search for search in step S106.
  • the transmission control unit 51g transmits, to the server 54, for example, the shape and color information necessary for creating a keyword for search together with the request information in step S55.
  • the server side including the specific device operates according to the flowchart of FIG.
  • step S111 the specific device 60 and the servers 53 and 54 determine whether or not the data reception mode is set. If the data reception mode is set, the specific device 60 and the servers 53 and 54 enter a data reception standby state from each device that transmits data. .
  • a specific device 60 receives this transmission data, and when the imaging device 30 selects SNS transmission and transmits data via the network 50, for example,
  • the server 53 receives the transmission data and the photographing device 30 selects image disclosure and transmits the data via the network 50, for example, the server 54 receives the transmission data (step S112).
  • the specific device 60 and the servers 53 and 54 determine whether or not there is a request for data description languageization (text conversion) (step S114).
  • the specific device 60 and the servers 53 and 54 analyze the received file according to the request (Step S115), create metadata of the data description language (text) (Step S116), and generate it.
  • the recorded metadata is recorded as a file (step S117).
  • the transmission control unit 51g requests the specific device 60 to make a data description language for all metadata. Furthermore, the transmission control unit 51g also requests text conversion for items for which metadata has not been created, such as names based on face determination.
  • the specific device 60 converts the metadata into a data description language, performs face determination based on the facial feature amount transmitted from the photographing device 30, and generates text corresponding to the face determination result as metadata.
  • the transmission control unit 51g requests the server 53 to convert the location, time, and name into text. Since the server 53 is open to a relatively large number of people even if it is limited, the transmission control unit 51g converts the text created using the GPS information and the date information into text within a range in which an individual cannot be specified. Request.
  • the text creation unit 53a of the server 53 refers to the text DB 53b based on GPS information and date information according to the same flow as in FIG. Generate text that indicates. Further, the text creation unit 53a converts the name of the person in the captured image into text based on the received facial feature quantity by referring to the text DB 53b. Even in this case, the transmission control unit 51g requests the textualization of only names of public persons or individuals permitted to be disclosed among persons in the captured image.
  • the transmission control unit 51g requests the server 54 to make a text for search. Since the server 53 is open to the unspecified number, the transmission control unit 51g requests text for search within a range in which an individual cannot be specified. For example, the text creation unit 54a of the server 54 converts each information into text by the same flow as in FIG.
  • step S121 If the specific device 60 and the servers 53 and 54 are not in the data reception mode, it is determined whether or not data display is instructed in step S121.
  • the specific device 60 and the servers 53 and 54 display the image of the designated file in step S122 (step S122), and the metadata text attached to the image is displayed. It is displayed (step S123).
  • the specific device 60 and the servers 53 and 54 determine whether or not an editing operation is performed in step S124, and if so, perform editing according to the editing operation (step S125).
  • the specific device 60 and the servers 53 and 54 update the version data, which is metadata, and thereafter repeat steps S122 to S128 until the display end is instructed. Since version data is also converted into a data description language, version data can be easily updated.
  • the specific device 60 and the servers 53 and 54 determine whether or not data transmission is instructed in step S131. If data transmission from an external device is instructed, the designated file is transmitted to the device that generated the data request (step S132). Thereby, in the photographing device 30, it is possible to write back the image file in which the metadata is created in the specific device 60, the servers 53, 54, and the image file that has been edited.
  • this embodiment has the same effects as those of the first embodiment, and allows the external device to execute metadata data description language, which is a process with a relatively large processing amount.
  • the data description language can be surely converted into a data description language.
  • all metadata is transmitted, and only necessary metadata is generated by the server or the like according to the request method.
  • data is transmitted. Only metadata that needs to be written in a descriptive language may be transmitted.
  • the digital camera is used as the photographing device.
  • the camera may be a digital single-lens reflex camera or a compact digital camera, and may be used for moving images such as video cameras and movie cameras.
  • a camera may be used, and a camera built in a portable information terminal (PDA: Personal Digital Assist) such as a mobile phone or a smartphone may of course be used.
  • PDA Personal Digital Assist
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment.
  • constituent elements over different embodiments may be appropriately combined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 撮影機器は、被写体を撮影して得た撮影画像を出力する撮像部と、上記撮像画像の記録時にタグ形式をベースにしたメタデータを作成するメタデータ作成部と、上記撮像画像を外部機器に送信可能な通信部と、上記メタデータ作成部が作成した上記メタデータをデータ記述言語に変換するメタデータ更新部と、上記撮像画像の送信時に、上記メタデータ更新部が作成した上記メタデータを上記通信部によって上記外部機器に送信させる送信制御部とを具備し、画像ファイル送信時に送信先に応じて補助データをテキスト形式のデータに変換することで、高速処理を可能としながら補助データの有効利用を促進する。

Description

撮影機器、撮影システム、撮影方法及び撮影制御プログラム
 本発明は、アップロード用の撮影画像等の撮影に好適な撮影機器、撮影システム、撮影方法及び撮影制御プログラムに関する。
 近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)は、画像処理を駆使して、様々な撮影機能を備えている。また、撮影機器においては、通信機能を備えたものもあり、撮影して得た画像を他の機器やネットワーク上に伝送することも可能である。
 ところで、従来、撮影機器においては、画像の記録に際して、撮影日時や撮影場所の情報等、画像以外の補助データを画像と共にファイル化して記録するようになっている。即ち、画像ファイルは、画像データと補助データとによって構成され、記録後に画像ファイルの編集も可能である。
 例えば、従来、メモリ上に残っている画像データ及び補助データを利用することで、記録媒体に記録された画像ファイルを効率的に編集する装置も開示されている。補助データとしては、撮影機器において高速処理が可能なように、バイナリ形式、タグ形式をベースにしたExif(Exchangeable image file format)データが採用されることが一般的である。
 しかしながら、Exif形式のデータ以外のデータを好むユーザもおり、パーソナルコンピュータ等において必ずしも有効に利用することができるとは限らない。そこで、日本国特開2005-217505号においては、通信ソフトや画像管理ソフトを用いて、Exif形式のデータをXML(Extensible Markup Language)形式にデータに変換する技術が開示されている。
 しかしながら、日本国特開2005-217505号の技術では、画像の送り先の用途やセキュリティ上の特徴まで考慮されていない。なお、撮影機器において補助データを汎用性が高いテキスト形式のデータによって構成することも可能であるが、テキスト形式のデータ作成の負荷は大きく、連写時や動画撮影時等において撮影中の補助データの作成が困難となる虞がある。
 本発明は、画像ファイル送信時に補助データを使いやすいデータに変換することで、高速処理を可能としながら外部で補助データの有効利用を促進することができる撮影機器、撮影システム、撮影方法及び撮影制御プログラムを提供することを目的とする。
 本発明に係る撮影機器は、被写体を撮影して得た撮影画像を出力する撮像部と、上記撮像画像の記録時にタグ形式をベースにしたメタデータを作成するメタデータ作成部と、上記撮像画像を外部機器に送信可能な通信部と、上記メタデータ作成部が作成した上記メタデータをデータ記述言語に変換するメタデータ更新部と、上記撮像画像の送信時に、上記メタデータ更新部が作成した上記メタデータを上記通信部によって上記外部機器に送信させる送信制御部とを具備する。
 また、本発明に係る撮影システムは、被写体を撮影して得た撮影画像を出力する撮像部と、上記撮像画像の記録時にタグ形式をベースにしたメタデータを作成するメタデータ作成部と、上記撮像画像を外部機器に送信可能な通信部と、上記撮像画像の送信時に、上記メタデータ作成部が作成した上記メタデータを上記通信部によって上記外部機器に送信させる送信制御部とを具備した撮影機器と、上記撮影機器から上記メタデータを受信し、上記撮影機器の依頼に従って受信した上記メタデータをデータ記述言語に変換するメタデータ更新部を備えた上記外部機器とを具備する。
 また、本発明に係る撮影方法は、被写体を撮影して得た撮影画像を出力する撮像ステップと、上記撮像画像の記録時にタグ形式をベースにしたメタデータを作成するメタデータ作成ステップと、上記撮像画像を外部機器に送信する通信ステップと、上記メタデータ作成ステップにおいて作成した上記メタデータをデータ記述言語に変換するメタデータ更新ステップと、上記撮像画像の送信時に、上記メタデータ更新ステップにおいて作成した上記メタデータを上記通信ステップにおいて上記外部機器に送信させる送信制御ステップとを具備する。
 また、本発明に係る撮影制御プログラムは、コンピュータに、被写体を撮影して得た撮影画像を出力する撮像ステップと、上記撮像画像の記録時にタグ形式をベースにしたメタデータを作成するメタデータ作成ステップと、上記撮像画像を外部機器に送信する通信ステップと、上記メタデータ作成ステップにおいて作成した上記メタデータをデータ記述言語に変換するメタデータ更新ステップと、上記撮像画像の送信時に、上記メタデータ更新ステップにおいて作成した上記メタデータを上記通信ステップにおいて上記外部機器に送信させる送信制御ステップとを実行させる。
本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図。 本実施の形態において採用される画像ファイルのフォーマットを説明するための説明図。 実施の形態の動作を説明するための説明図。 メタデータの変換を説明するための説明図。 第1の実施の形態の動作を説明するためのフローチャート。 第1の実施の形態の動作を説明するためのフローチャート。 第1の実施の形態の動作を説明するためのフローチャート。 第1の実施の形態の動作を説明するためのフローチャート。 第1の実施の形態の動作を説明するためのフローチャート。 本発明の第2の実施の形態を示すブロック図。 ネットワーク共有モードの動作フローを示すフローチャート。 サーバ側の動作フローを示すフローチャート。
 以下、図面を参照して本発明の実施の形態について詳細に説明する。
(第1の実施の形態)
 図1は本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図である。本実施の形態においては、画像の記録時には、例えばExif形式等のバイナリ形式、タグ形式のメタデータ記録を行う。ここでは、1枚の撮像画像に基づく画像ファイルは、撮像画像の画像データ及びメタデータにより構成されるものである。
 図2は本実施の形態において採用される画像ファイルのフォーマットを説明するための説明図である。図2(a)は、記録時の画像フォーマットを示しており、画像ファイルは、画像データPと補助データ(メタデータ)Mrとにより構成される。メタデータは、コンテンツ(ここでは画像)以外のデータであって、ユーザやアプリケーションがより効率的にコンテンツを扱うことを可能にするためのものであり、例えば、画像の大きさの情報や、作成者や作成日等のプロパティ情報を含んでもよい。
 図2(a)の例では、メタデータMrは1つのAPPセグメントSG1を有し、APPセグメントSG1には、データ列の識別情報とデータ列とが含まれる。データ列としてはバイナリ形式のデータが採用され、識別情報にはデータ列がバイナリ形式のデータであることを示す情報が記述される。
 バイナリ形式のデータ列は、規格データ列とメーカノートとを含んでいる。規格データ列としては、撮影情報等の規格化された情報、例えば、露出時間、絞り値、露出プログラム、ISO感度、撮影日時の情報等を含む。メーカノートは、規格データ列には含まれない種々の情報を含むことができる。例えば、メーカノートには、撮影された人物の顔の特徴量の情報、顔の認識結果、顔認識結果によって得られた名前等の任意の情報を記述することができる。
 本実施の形態においては、画像ファイルの送信時には、バイナリ形式のデータを、多くの機器やユーザーが利用しやすい言語に変換して送信する。例えば、バイナリ形式のデータ列を、インターネット上で様々なデータを扱う場合に特に利点を発揮する言語であるデータ記述言語(テキスト記述言語)に変更するようになっている。例えば、本実施の形態においては、データ記述言語として、テキストで記述されるXMP形式のデータ、例えば、XML形式のデータを採用する。
 図2(b)はこのような画像通信時の画像フォーマットを示しており、画像ファイルは、画像データPとメタデータMsとにより構成される。メタデータMsは2つのAPPセグメントSG1,SG2を有し、APPセグメントSG1の内容は、記録時のAPPセグメントSG1と同様である。本実施の形態においては、APPセグメントSG2には、APPセグメントSG1のデータ列の情報をデータ記述言語に変更したデータ記述言語データ列を含む。データ列の識別情報には、データ記述言語データ列がデータ記述言語により記述されていることを示す情報が含まれる。
 また、処理速度の制約から、撮影時に、全てのメーカノートを確実に構築することができるとは限らない。例えばメーカノートとして記録すべき顔認識結果等を撮影時に取得することができないことも考えられる。この場合には、このようなデータについては、画像ファイルの送信時に、データ記述言語により追加記述してもよい。なお、画像ファイルの送信時に追加した情報を、バイナリ形式のデータ列に挿入してもよく、また、データ記述言語の作成後に、バイナリ形式のデータ列については削除してもよい。
 図1において、撮影機器10は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部12を有している。撮像部12は、撮影機器10の前面に設けられた被写体像を取り込むレンズ12aと、レンズ12aからの被写体像を光電変換して撮影画像信号を得る撮像素子12bによって構成される。
 撮像部12は、信号処理及び制御部11によって駆動制御されて、レンズ12aを介して被写体を撮影し、撮影画像を出力する。信号処理及び制御部11は、撮像素子12bの駆動信号を撮像部12に出力すると共に、撮像部12からの撮影画像を読み出す。信号処理及び制御部11は、読み出した撮影画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。
 撮影機器10には、時計部13及び操作判定部14も配設されている。時計部13は信号処理及び制御部11が用いる時間情報を発生する。操作判定部14は、撮影機器10に設けられた図示しないレリーズボタン、ファンクションボタン、撮影モード設定等の各種スイッチ等を含む操作部に対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部11に出力するようになっている。信号処理及び制御部11は、操作信号に基づいて、各部を制御する。
 また、信号処理及び制御部11の表示制御部11aは表示に関する各種処理を実行する。表示制御部11aは、信号処理後の撮影画像を表示部16及び接眼表示部18に与えることができる。表示部16及び接眼表示部18は、夫々LCD等の表示画面を有しており、表示制御部11aから与えられた画像を表示する。また、表示制御部11aは、各種メニュー表示等をこれらの表示画面に表示させることもできるようになっている。
 また、撮影機器10にはタッチパネル17が設けられている。例えば、タッチパネル17を表示部16の表示画面上に設けることで、ユーザが指で指し示した表示画面上の位置に応じた操作信号を発生することができる。これにより、ユーザは、表示部16の表示画面上に表示された画像に対する選択操作等を簡単に行うことができる。
 なお、表示部16は、撮影機器10の例えば背面の略全域を占めるように配設されており(図3参照)、撮影者は、撮影時に表示部16の表示画面上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うことができる。
 また、撮影機器10には接眼センサ21も設けられている。接眼センサ21は、例えば網膜センサ等によって構成され、撮影者の網膜認識が可能である。なお、接眼センサ21は、撮影者の画像認識によって撮影者を認識するセンサであってもよい。
 信号処理及び制御部11は、信号処理後の撮影画像を圧縮処理し、圧縮後の画像を記録再生部15に与えて記録させることができる。記録再生部15としては、例えばカードインターフェースを採用することができ、記録再生部15はメモリカード等の記録媒体に画像情報及び音声情報等を記録すると共に、記録媒体に記録されている画像及び音声情報を読み出して再生することもできるようになっている。
 信号処理及び制御部11は、各部を制御することで、ユーザ操作に基づく撮影モードを設定して、各撮影モードに応じた撮影機能を実現する。例えば、信号処理及び制御部11は、操作判定部14等から画像ファイルの送信モード(ネットワーク共有モード)を指示するための操作信号が入力されると、送信モードを設定することができるようになっている。
 信号処理及び制御部11のメタデータ作成部11eは、撮像部12からの撮像画像の撮影に際して、メタデータを作成する。撮像画像の撮影時には、メタデータ作成部11eは、図2(a)に示すように、バイナリ形式のメタデータMrを作成するようになっている。信号処理及び制御部11は、撮像画像の記録に際して、画像データP及びメタデータMrによって構成される画像ファイルを作成して、記録再生部15に与えて記録させるようになっている。
 撮影機器10には、通信部19が設けられている。通信部19は、送信制御部11gに制御されて、図示しない外部機器との間で通信を行って、情報を送受することができるようになっている。なお、通信部19としては、種々の伝送路を採用することができ、例えば、LAN等の有線ケーブルを採用した有線伝送路、無線LAN、ブルートゥース(登録商標)、WiMAXや電話回線網等を採用した無線伝送路等を用いることができる。
 本実施の形態においては、通信部19を利用して外部機器との間で通信を行う送信モードが指定されると、信号処理及び制御部11の送信制御部11gは、メタデータ更新部11fを制御して、記録再生部15から指定された画像ファイルに含まれるメタデータMrを読み出させて、バイナリ形式データからデータ記述言語に変換した新たなメタデータMsを生成させる。送信制御部11gは、変更したメタデータを記録再生部15に与えて画像ファイルを更新すると共に、データ記述言語に変換したメタデータを含む画像ファイルを、通信部19に与えて所定の送信先に送信させる。なお、この場合には、通信部19は、メタデータとして、データ記述言語で記述されたAPPセグメントSG2のみを送信してもよく、バイナリ形式のAPPセグメントSG1及びデータ記述言語のAPPセグメントSG2の両方を送信してもよい。
 更に、送信制御部11gは、メタデータ更新部11fを制御して、バイナリ形式のメタデータMrに記述されていない情報を生成して、データ記述言語によるメタデータMsに追加記録してもよく、新たに作成されたメタデータMsを含めた画像ファイルを送信させることもできるようになっている。
 送信時に新たにメタデータを作成するために、信号処理及び制御部11には、顔判定部11b、文字判定部11c、シーン・動き判定部11dが設けられている。顔判定部11bは、公知の顔検出の手法によって、撮影画像中の人物の顔を検出する。例えば、顔判定部11bは、顔の明るさの特徴をモデル化した複数の濃淡画像と撮影画像とを順次比較することで、人物の顔を検出する手法を採用してもよい。また、顔判定部11bは、例えば笑顔の場合における口角の角度や目尻の角度、顔パーツの陰影の特徴を記憶した図示しないデータベースを利用することで、顔の表情を判定することもできる。また、顔判定部11bは、多数の人物の顔の特徴量を記憶した図示しないデータベースを利用することで、撮影された人物の年齢、性別等を判定することも可能である。更に、顔判定部11bは、顔の特徴量とユーザによって入力された名前とを関連付けて記憶することにより、撮影された人物の名前を判定することもできるようになっている。
 文字判定部11cは、撮像画像中の文字に対する文字認識処理によって、撮像画像中から文字を抽出する。また、シーン・動き判定部11dは、撮像画像からシーンや撮像画像中の物体の動き等を検出する。更に、信号処理及び制御部11は、撮像画像中の色や、形を判定するようにしてもよい。なお、物体の動きは、スルー画から取得する必要があり、撮影時に物体の動きに基づく情報を例えばメーカノート等に記録する。
 メタデータ更新部11fは、こられの判定結果に応じたメタデータをデータ記述言語によって生成して、画像ファイルを更新する。例えば、顔判定部11bが、顔の特徴量から撮像画像中の人物の名前を判定した場合には、メタデータ更新部11fは、撮像画像中の存在する人物の名前をメタデータとして記述する。また、例えば、文字判定部11cによって、撮像されたコンパクトディスク(CD)のタイトルを検出した場合には、メタデータ更新部11fは、「シューベルトのCD」等のテキストのメタデータを生成してもよい。また、撮像画像の色や形の判定結果から、メタデータ更新部11fは、例えば、「緑の中の風景」、「赤い夕日」等のテキストをメタデータとして生成することもできる。また、メタデータ更新部11fは、接眼センサ21の検出結果に基づいて、撮影者のテキスト情報をメタデータとして生成してもよい。
 なお、処理能力上問題が無ければ、撮像時又は画像ファイルの送信までの間に、メタデータ作成部11eが、これらの判定部11b~11dの判定結果に基づくメタデータをバイナリ形式にて生成してもよい。この場合には、メタデータ更新部11fは、作成されたメタデータをファイル送信時にデータ記述言語に変更してメタデータを更新する。
 更に、メタデータ更新部11fは、単にバイナリ形式のメタデータをデータ記述言語に変更するだけでなく、バイナリ形式のメタデータや各判定部11b~11dによって画像から判定された判定結果を用いて、新たなメタデータをデータ記述言語によって生成してもよい。例えば、メタデータ更新部11fは、バイナリ形式のメタデータ中の、撮影日時及び緯度経度情報を用いて、「夏の信州」や「New Year’s day in Japan」等のテキストを生成してもよい。このように、上述した画像の色や形からのテキストへの変換、日時等のメタデータからのテキストへの変換等を簡単に行うために、撮影機器10にはデータベース20が設けられている。データベース20は数値や画像の形状や色の情報等を用いて、テキストに変換する辞書機能を有する。このようなデータベース20を用いることで、画像データやメタデータに含まれる色、形、位置や日付等の情報から、よりリッチで扱い易い情報をユーザに提供することができる。
 メタデータ更新部11fによる上述した各種メタデータの更新処理は、例えば、バイナリ形式のデータとテキストとの関係や、各種判定結果とテキストとの関係等を記述したデータベース20を参照することでも、簡単に実現することが可能であり、本実施の形態においては、メタデータ更新部11fは、このようなテキスト化するメタデータの元となるデータとテキストとの関係を記述したデータベース20を採用することで、メタデータの更新を行うものとして説明する。
 また、画像ファイル毎にメタデータが設定される例について説明したが、画像ファイルとは別に画像ファイルを管理するための補助データが記録されることがある。例えば、各画像ファイルの画像中に含まれる人物の名前や、画像ファイルがいずれのグループに属するかを記述した補助データ等がある。本実施の形態においては、このような補助データについてもデータ記述言語化して送信することができるようになっており、以後説明の簡略化のために、メタデータはこのような補助データも含むものとする。
 ところで、撮影して得た撮影画像を、インターネット等のネットワーク上にアップロードして、第3者との間で画像を共有して楽しむことが考えられる。しかしながら、撮影画像中には、プライバシーの観点から、公開が好ましくないメタデータもある。
 そこで、本実施の形態においては、送信制御部11gは、送信先の種別に応じて、メタデータの送信に異なるセキュリティ設定を行うようになっている。例えば、送信制御部11gは、送信先の機器を、特定の機器、限定されたネットワーク内の機器、公開されたネットワーク内の機器の3の種別に分類し、各種別毎に送信内容を決定するようになっている。例えば、送信制御部11gは、特定の機器に対しては全てのメタデータをそのまま送信し、限定されたネットワーク内の機器については、メタデータから一部のデータを除いて送信し、公開されたネットワーク内の機器については、メタデータのうちの一部のデータのみを送信する。また、送信制御部11gは、送信先の種別に応じて、メタデータを加工した後送信するようにしてもよい。
 次に、このように構成された実施の形態の動作について図3乃至図9を参照して説明する。図3は実施の形態の動作を説明するための説明図であり、図4はメタデータの変換を説明するための説明図である。図5乃至図9は実施の形態の動作を説明するためのフローチャートである。
 図5はカメラ制御を示している。図5のステップS1において、信号処理及び制御部11は撮影モードであるか否かを判定する。いま、撮影モードが指示されているものとする。この場合には、信号処理及び制御部11は、ステップS21において、スルー画の表示及び顔判定を行う。信号処理及び制御部11は撮像部12からの撮影画像を取り込んで、所定の信号処理を施す。信号処理及び制御部11は、信号処理後の撮影画像を顔判定部11bに出力すると共に、信号処理後の撮影画像を表示部16に与えてスルー画を表示させる。
 また、信号処理及び制御部11は、ステップS22において、各種撮影条件を判定する。例えば、信号処理及び制御部11は、メタデータ作成の元となる、露出時間、絞り値、露出プログラム、ISO感度、撮影日時の情報等を判定する。
 信号処理及び制御部11は、ステップS23において撮影操作の有無を判定する。ここで、撮影者がレリーズボタン等の操作によって撮影を行うものとする。そうすると、信号処理及び制御部11は、次のステップS24に移行して、撮影を行う。
 図3(a)は撮影操作が行われる様子を示している。撮影者31は、被写体35に向かって撮影機器10を構える。例えば、図3(a)に示すように、撮影者31は右手32R及び左手32Lによって撮影機器10を把持し、表示部16の表示画面16a上に表示されたスルー画を見ながら撮影を行う。
 撮像部12からの撮像画像は、信号処理及び制御部11に供給されて、所定の信号処理が施される。また、メタデータ作成部11eは、顔判定結果及び撮影条件の判定結果等に基づいて、メタデータSG1を作成する(ステップS25)。上述したように、撮影時には、バイナリ形式のメタデータが作成される。なお、メタデータ作成部11eは、バイナリ形式の規格データ列だけでなく、処理が可能な限り被写体等の距離や色の情報量を増やすためにメーカノートについても作成する。信号処理及び制御部11は、画像データとメタデータとによって構成される画像ファイルの記録を行う。
 信号処理及び制御部11は、ステップS26において、記録した撮影画像を表示部16にも与えてレックビュー表示(確認表示)させる。撮影者31は、図3(a)の下向きの矢印に示すように、レックビュー表示を確認すると共に、手で表示画面16a上に配設されたタッチパネル17を操作しやすいように、撮影機器10を水平に構える。
 信号処理及び制御部11は、ステップS27においてレックビュー表示から所定時間経過したか否かを判定し、ステップS28において、ネットワーク共有モードに移行するためのシェアボタン操作が行われたか否かを判定する。
 図3(b)は表示画面16a上に表示されたレックビュー画像41を示しており、図3(b)の例では、表示制御部11aによって、シェアボタンとして操作アイコン42が表示されていることを示している。図3(b)に示すように、レックビュー画像41には、人物の画像41と樹木及び山の背景の画像41bとが含まれている。そして、表示画面16a上の端部には、操作アイコン42が表示されている。
 なお、信号処理及び制御部11は、撮影の度に自動的にシェアボタンである操作アイコン42を表示させるようにしてもよく、また、撮影機器10に設けた図示しない加速度センサ等によって、ユーザが撮影後に撮影機器10を水平に傾けたことを検知して、操作アイコンを表示させるようにしてもよい。
 ここで、ユーザが指33等によって、操作アイコン42をタッチ操作するものとする。そうすると、信号処理及び制御部11は、ネットワーク共有モードを設定する(ステップS29)。ネットワーク共有モードにおいては、表示制御部11aは、送信先の種別を決定するための選択アイコン43~45を表示させる。選択アイコン43は、送信先の種別として、特定の機器を指定するためのものであり、選択アイコン44は、送信先の種別として限定されたネットワーク内の機器を指定するためのものであり、選択アイコン45は、送信先の種別として、公開されたネットワーク内の機器を指定するためのものである。
 図6は図5のステップS29,S8のネットワーク共有処理の具体的なフローを示している。
 ネットワーク共有処理では、撮影機器10は、例えば図6のフローに従って、自動的に画像ファイルを通信部19を介して外部に送信する。送信制御部g11は、図6のステップS31において、機器間通信が選択されたか否かを判定する。機器間通信が選択された場合には、送信制御部11gは、次のステップ32において通信候補を判定し、ステップS33において認証操作を行う。通信部19と通信候補の機器との間で認証が行われると、送信制御部11gは、ステップS34においてメタデータをデータ記述言語化した後、相手先の機器に送信する(ステップS35)。
 図7は図6のステップS34の処理の具体例を示すフローチャートである。
 図4(a)は送信前におけるメタデータの記録内容を示している。図4(a)のAdressは記録再生部15によって記録された画像ファイル中のメタデータの記録媒体上の記録位置を示しており、DataはAdressによって規定された記録位置における記録内容を示している。
 本実施の形態においては、バイナリ形式においては、メタデータの記録媒体上の記録位置は、記述する項目に応じて規定されている。データベース20は、メタデータの記録媒体上の記録位置と記述する項目との関係が記述されており、メタデータ更新部11fは、データ記述言語化可能な項目(対象データ)が存在する場合には、ステップS61からステップS62に処理を移行して、データベース20を参照する。
 メタデータ更新部11fは、データベース20を参照して、メタデータ中のAdressをテキスト形式の項目名(データ名)に変換する(ステップS63)。また、メタデータ更新部11fは、データベース20を参照して、メタデータ中のDataをテキスト形式のデータ内容に変換する(ステップS64)。メタデータ更新部11fは、テキスト化した項目名及びデータ内容によって、メタデータを生成する。こうして、図2(b)のAPPセグメントSG2が生成される(ステップS65)。
 図4(b)はテキスト化されたメタデータを示しており、メタデータは、項目名と各項目名に対応するDataとがテキストによって記述されている。図4(b)の例では、図4(a)の各アドレスが項目名Name1,Name2,…に変換され、図4(a)の各バイナリDataがテキストのDATA1,DATA2,…に変換されている。なお、メタデータは階層構造を有していてもよく、例えば、項目名Name5は、下位階層に項目名Name6を有している。
 メタデータ更新部11fは、メタデータの変換が終了していなければ(ステップS66)、次の項目(別のデータ)を参照してステップS61~S66の処理を繰り返す。全てのメタデータの変換が終了すると、処理は図6のステップS35に戻って、送信制御部11gは、通信部19を制御して、画像ファイルを送信する。
 こうして、画像ファイルが転送された特定の機器において、受信した画像ファイルの表示、編集、検索等を行うことができる。この場合において、受信したメタデータはデータ記述言語化されており、多種多様のソフトウェアによってこのメタデータを利用することができる。特定の機器としては、例えば、撮影機器10の所有者が所有しているパーソナルコンピュータやスマートフォン等の他の機器が考えられ、この所有者が撮影機器10からの画像ファイルを他の機器において利用する場合に、テキスト言語化されたメタデータを用いることで、検索、編集等の利用が容易となる。
 このように、メタデータを例えばXML形式等のデータ記述言語によって記述するので、データに名前やパラメータを付けて簡単に管理することができ、並べ変えなどの自由度が高く、階層表現も出来る。これにより、誰でも簡単に利用でき、コンピュータ、インターネット、情報家電機器との相性が良く、ブラウザによって利用可能であり、また、プログラムからデータが扱いやすく、サービス向上の観点で開発効率が高いという利点がある。
 次に、例えば、ユーザが図3(c)の選択アイコン44のタッチ操作、即ち相手先が限定されたネットワーク内の機器を指定する操作を行うものとする。送信制御部11gは、図6のステップS41において、この操作を検出すると、ステップS42において、送信先を設定する。例えば、送信制御部11gは、予め登録されているSNS(ソーシャル・ネットワーキング・サービス)を送信先に設定して、認証操作を行う(ステップS43)。
 SNSは、限定されてはいても、比較的多数の利用者が画像を共有することができることから、画像データ及びメタデータからなる画像ファイルをそのまま画像共有のためにアップロードすると、個人情報保護の観点等から好ましくない場合が考えられる。そこで、本実施の形態においては、ネットワーク共有モードにおいては、相手先の種別毎に、送信可能な内容を切り換える。
 送信制御部g11は、認証が行われると、図6のステップS44において、場所、時刻をテキスト化して、送信する(ステップS45)。即ち、この場合には、メタデータ更新部11fは、送信制御部11gに制御されて、メタデータ中の種々の項目のうち、場所に関する項目及び時刻に関する項目のみをデータ記述言語化する。
 図8は図6のステップS44の処理の具体例を示すフローチャートである。データベース20には、GPS情報に対応するテキスト、日付情報に対応するテキストが記述されている。メタデータ更新部11fは、送信制御部11gに制御されて、GPS情報が存在する場合には(ステップS71)、ステップS72においてデータベース20を参照する。メタデータ更新部11fは、GPS情報をデータベース20の記述を元に、例えば国、県、市町村名、或いは地方名等のテキストに変換する(ステップS73)。なお、メタデータ更新部11fは、GPS情報に基づく緯度経度を単にテキスト化してもよい。
 また、メタデータ更新部11fは、送信制御部11gに制御されて、日付情報が存在する場合には(ステップS74)、ステップS75においてデータベース20を参照する。メタデータ更新部11fは、日付情報をデータベースの記述を元に、例えば春夏秋冬等の季節、クリスマスやお正月、祝日等のテキストに変換する。更に、メタデータ更新部11fは、日付情報から撮像画像中の誕生日の情報をテキスト化してもよい。また、メタデータ更新部11fは、日付情報に基づく日時を単にテキスト化してもよい。
 なお、メタデータ更新部11fが参照するデータベース20には、複数の国の言語のテキストを記述しておいてもよい。これにより、メタデータ更新部11fは、各国の言語のテキストに変換することもでき、また、ユーザが指定した言語のテキストに変換することもできる。
 メタデータの変換が終了すると、図6のステップS35に戻って、送信制御部11gは、通信部19を制御して、画像ファイルを送信する。なお、この場合には、送信制御部11gは、メタデータとしメタデータ更新部11fによって更新されたデータのみを送信する。これにより、ユーザがSNSを選択した場合には、例えば地域や日時に関する情報のみがメタデータとして送信されることになる。SNSを選択した場合には、友人等の機器によって画像共有されるものと考えることができ、友人との旅行で撮影した写真のように、撮影場所、撮影日時等のメタデータをデータ記述言語化することで、これらのデータの利用を簡単にすることができる。一方、その他のデータについては送信しないことにより、個人情報等の保護が可能である。
 次に、例えば、ユーザが図3(c)の選択アイコン45のタッチ操作、即ち相手先が公開されたネットワーク内の機器を指定する操作を行うものとする。送信制御部11gは、図6のステップS51において、この操作を検出すると、ステップS52において、送信先を設定する。例えば、送信制御部11gは、予め登録されているブログや画像投稿サイトを送信先に設定して、認証操作を行う(ステップS53)。なお、ステップS51において、画像公開の選択操作が検出されない場合には、所定時間経過後に、警告を発して処理を終了する(ステップS58)。
 画像投稿サイト等においては、不特定多数の利用者が画像を共有することができることから、本実施の形態においては、画像データ及び検索のためのメタデータからなる画像ファイルをアップロードする。例えば、撮影者と面識のないユーザは、撮影対象物や撮影場所、季節等によって画像を検索したくなることが多いからである。
 送信制御部g11は、認証が行われると、図6のステップS54において、メタデータとして検索用のデータをテキスト化して、送信する(ステップS55)。即ち、この場合には、メタデータ更新部11fは、送信制御部11gに制御されて、メタデータ中の種々の項目のうち、検索に適した項目のみをデータ記述言語化して、送信データ量を削減しながら、公開された画像を利用するユーザの利便性を向上させると共に個人情報の保護を可能にする。なお、検索に適した項目としては所謂5W1Hの情報に関する項目が考えられるが、公開される点を考慮すると、「誰」に関する情報ついては送信しないようにした方がよい。
 図9は図6のステップS54の処理の具体例を示すフローチャートである。データベース20には、文字読み取り情報に対応するテキスト、顔情報に対応するテキスト、シーン情報に対応したテキスト及び被写体分析情報に対応したテキストが記述されている。メタデータ更新部11fは、送信制御部11gに制御されて、例えば図8と同様の手法により、場所、時刻をテキスト化する(ステップS81)。
 なお、ステップS81におけるテキスト化では、個人情報のセキュリティを考慮したテキスト化を行う。例えば、個人を特定できないように、GPS情報に基づいて、国名又は県名等のテキスト化を行う。また、日付情報として個人の誕生日の情報が含まれる場合には、この日付情報をテキスト化しない。
 メタデータ更新部11fは、文字読み取り情報が存在する場合には(ステップS82)、データベース20を参照して(ステップS83)、読み取り文字をテキスト化する(ステップS84)。例えば、画像中に含まれる駅名等をテキスト化することで、地図検索等において簡単に利用可能となる。
 また、メタデータ更新部11fは、顔情報が存在する場合には(ステップS85)、データベース20を参照して(ステップS86)、顔情報に基づいたテキスト化を行う(ステップS87)。例えば、画像中に含まれる人物の性別、年齢、人数等をテキスト化する。例えば、顔の特徴量から撮像画像中に赤ちゃんが存在することを検出した場合には、赤ちゃんというテキストをメタデータに記述する。
 また、メタデータ更新部11fは、シーン情報が存在する場合には(ステップS88)、データベース20を参照して(ステップS89)、シーン情報に基づいたテキスト化を行う(ステップS90)。例えば、画像中が夕日のシーンであるとか、山脈を写したシーンであるとかの情報をテキスト化する。更に、メタデータ更新部11fは、形、位置、色、GPSの情報等を用いて各シーンを検出してもよく、これらのシーンをテキスト化することにより、画像投稿サイト等において、各シーンに対応した画像の検索を容易にすることが可能となる。
 また、メタデータ更新部11fは、被写体分析情報が存在する場合には(ステップS91)、データベース20を参照して(ステップS92)、被写体分析情報に基づいたテキスト化を行う(ステップS93)。例えば、被写体がペット、動物、鳥等であることが検出された場合には、その情報をテキスト化することで、画像投稿サイト等において、動物名等をキーワードとして画像の検索を容易にすることが可能となる。
 なお、ネットワーク共有モードは、撮影時だけでなく、再生時にも設定される。信号処理及び制御部11は、図5のステップS1において、撮影モードが指定されていない場合には、ステップS2において再生モードが指示されているか否かを判定する。再生モードが指示されている場合には、信号処理及び制御部11は、記録再生部15に記録されている画像を読み出し、伸張処理等の所定の信号処理を施した後、表示部16に与えて再生表示させる(ステップS3)。
 信号処理及び制御部11は、ステップS4においてメタデータの再生が指示されているか否かを判定し、メタデータの再生が指示されている場合にはメタデータの内容を表示部16に表示させる(ステップS5)。信号処理及び制御部11は、ステップS6において再生モードを元に戻す操作が行われたか否かを判定し、操作が行われた場合には処理をステップS2に戻す。再生モードを元に戻す操作が行われていない場合には、表示制御部11aは、シェアボタンとして操作アイコン42を表示画面16a上に表示させ、ステップS7においてシェアボタン操作が発生したか否かを判定する。
 信号処理及び制御部11は、シェアボタン操作が行われない場合には、他の画像を指定する変更操作があったか否かを判定し(ステップS9)、変更操作があった場合には、指定された他の画像を読み出し、伸張処理等の所定の信号処理を施した後、表示部16に与えて再生表示させる(ステップS10)。
 信号処理及び制御部11は、シェアボタン操作が行われたものと判定した場合には、ステップS8において、ネットワーク共有モードに移行する。ネットワーク共有モードにおける動作はステップS29と同様である。また、信号処理及び制御部11は、ステップS2において再生モードが指示されていないと判定した場合には、ステップS11において、画像受信及び書き戻しの処理を行う。
 このように本実施の形態においては、記録されたバイナリのメタデータを送信時にデータ記述言語化して送信する。記録時にはバイナリデータを採用しており、撮影機器においてメタデータの処理が容易である。一方、送信時には汎用性に優れたデータ記述言語に変換して送信しており、送信された画像ファイルの利用が容易となる。また、送信先に応じて送信するメタデータを変更しており、セキュリティに優れている。一般的なカメラにおいてはテキスト検索は普及していないが、コンピュータにおいてはテキスト検索が主流であり、インターネット等では、XML形式の記述が多用されている。従って、記録時にバイナリ形式のメタデータを記録することで処理速度の低下を抑制すると共に、送信時に、メタデータをXML等のデータ記述言語で記述して送信することにより、インターネット及びコンピュータ等において画像ファイルを利用しやすくすることができる。例えば、検索が極めて容易となり、また、画像編集の処理内容を容易に確認することも可能である。
 なお、送信時に、バイナリ形式のメタデータをデータ記述言語に変更して記録する例について説明したが、撮影後であって送信前の任意のタイミングで、データ記述言語への変更を行うようにしてもよい。
(第2の実施の形態)
 図10は本発明の第2の実施の形態を示すブロック図である。図10において図1と同一の構成要素には同一符号を付して説明を省略する。
 第1の実施の形態においては、撮影機器30において、全てのメタデータを撮影機器30において作成し、送信すべきメタデータの全てを撮影機器30においてデータ記述言語化した。しかし、メタデータの作成及び更新処理の処理量が比較的大きい場合、或いはテキスト化に必要なデータベースのサイズ等を考慮すると、一部又は全部のデータ記述言語化を、サーバ上で行った方がよいことが考えられる。本実施の形態はこの場合を考慮したものである。
 図10において、メタデータ作成部11eは、メタデータの作成に際して、比較的処理量が小さいメタデータ作成処理のみを行い、比較的処理量が大きいメタデータ作成処理は行わない。送信制御部51gは、送信モード(ネットワーク共有モード)において、メタデータ更新部11fを制御して、比較的処理量が小さいメタデータの作成、更新処理のみを行い、比較的処理量が大きいメタデータの作成、更新処理は行わない。この場合には、送信制御部51gは、メタデータの作成・更新を特定の機器60やネットワーク50上のサーバ53,54等に依頼すると共に、メタデータの作成・更新に必要な情報をこれらの特定の機器60及びサーバ53,54に提供するようになっている。
 通信部19は、閉じたネットワークを介して特定の機器60との間で通信が可能であり、送信制御部51gによって指定された情報を特定の機器60に送信することができる。また、通信部19は、例えば無線LANのホットスポット52との間で通信が可能であり、ホットスポット52を介して送信制御部51gによって指定された情報をネットワーク50上のサーバ53,54に送信することができる。
 特定の機器60は、例えば図7に示すフローによって、メタデータをデータ記述言語化するための図示しないデータベースを備えており、メタデータをデータ記述言語化することができるようになっている。SNSサーバ53は、データ記述言語によるメタデータを生成するためのテキスト作成部53aを有している。テキスト作成部53aは、メタデータとなるテキストを生成するためのテキストDB(データベース)53bを参照することで、撮影機器30から送信されたデータを用いてテキストのメタデータを生成する。画像投稿サーバ54も、データ記述言語によるメタデータを生成するためのテキスト作成部54aを有している。テキスト作成部54aは、メタデータとなるテキストを生成するためのテキストDB(データベース)54bを参照することで、撮影機器30から送信されたデータを用いてテキストのメタデータを生成する。
 例えば、顔認識処理の処理は比較的大きく、撮像画像中の人物の名前をメタデータとして記述する処理の処理量は大きい。そこで、送信制御部51gは、顔の特徴量のみをメタデータとして送信する。サーバ53,54のテキストDB53b,54bに、顔の特徴量に対応する名前の情報を記憶させることで、サーバ53,54のテキスト作成部53a,54aにおいて、撮影機器30から送信された顔の特徴量に応じた名前をデータ記述言語により生成することができる。
 なお、信号処理及び制御部11は、特定の機器60、サーバ53,54から画像ファイルを書き戻すことが可能であり、特定の機器60及びサーバ53,54によって取得されたメタデータを含む画像ファイルを記録再生部15によって記録させることが可能である。
 次に、このように構成された実施の形態の動作について図11及び図12を参照して説明する。図11はネットワーク共有モードの動作フローを示すフローチャートである。図11において図6と同一の手順には同一符号を付して説明を省略する。また、図12はサーバ側の動作フローを示すフローチャートである。
 本実施の形態においては、送信先の種別に応じて、メタデータの作成依頼の内容を変更する。送信制御部51gは、送信先の機器を、特定の機器(サーバ)、限定されたネットワーク内の機器(サーバ)、公開されたネットワーク内の機器(サーバ)の3の種別に分類し、各種別毎に依頼の内容及び送信するメタデータの内容を決定するようになっている。
 例えば、ユーザが機器間通信を選択すると、送信制御部51gは、ステップS104において、例えば特定の機器60にメタデータのデータ記述言語化を依頼する。この場合には、送信制御部51gは、この依頼の情報と共に、ステップS35において、バイナリ形式のメタデータを特定の機器60に送信する。
 また、ユーザがSNS送信を選択すると、送信制御部51gは、ステップS105において、場所、時刻、名前のテキスト化を依頼する。この場合には、送信制御部51gは、この依頼の情報と共に、ステップS54において、バイナリ形式のGPS情報、日付情報の外に、顔の特徴量に関するメタデータを例えばサーバ53に送信する。
 また、ユーザが画像公開を選択すると、送信制御部51gは、ステップS106において、検索用のテキスト化を依頼する。この場合には、送信制御部51gは、この依頼の情報と共に、ステップS55において、検索のためのキーワードの作成に必要な、形、色情報を例えばサーバ54に送信する。
 一方、特定の機器を含むサーバ側は図12のフローチャートに従って動作する。ステップS111において、特定の機器60及びサーバ53,54は、データ受信モードであるか否かを判定し、データ受信モードの場合には、データを送信する各機器からのデータの受信待機状態となる。
 撮影機器30が機器間通信を選択してデータを送信すると、例えば特定の機器60がこの送信データを受信し、撮影機器30がSNS送信を選択してネットワーク50を介してデータを送信すると、例えばサーバ53がこの送信データを受信し、撮影機器30が画像公開を選択してネットワーク50を介してデータを送信すると、例えばサーバ54がこの送信データを受信する(ステップS112)。特定の機器60及びサーバ53,54は、ステップS113において、データ記述言語化(テキスト化)の依頼があるか否かを判定する(ステップS114)。この依頼がある場合には、特定の機器60及びサーバ53,54は、依頼に従って受信ファイルを解析し(ステップS115)、データ記述言語(テキスト)のメタデータを作成して(ステップS116)、生成したメタデータをファイル記録する(ステップS117)。
 例えば、送信制御部51gは、特定の機器60に対して、全てのメタデータについてデータ記述言語化を依頼する。更に、送信制御部51gは、メタデータが作成されていない項目、例えば、顔判定による名前等についてもテキスト化の要求を行う。特定の機器60は、メタデータをデータ記述言語化すると共に、撮影機器30から送信された顔の特徴量から顔判定を行い、顔判定結果に対応したテキストをメタデータとして生成する。
 また、送信制御部51gは、サーバ53に対して、場所、時刻、名前のテキスト化を依頼する。サーバ53は、限定されてはいても比較的多くの人間に公開されることから、送信制御部51gは、GPS情報及び日付情報を用いて作成するテキストについては個人を特定できない範囲でのテキスト化を要求する。例えば、サーバ53のテキスト作成部53aは、図8と同様のフローによって、GPS情報及び日付情報に基づいて、テキストDB53bを参照することで、図8と同様に、地域等を示すテキスト及び季節等を示すテキストを生成する。また、テキスト作成部53aは、テキストDB53bを参照することで、受信した顔の特徴量に基づいて、撮像画像中の人物の名前をテキスト化する。この場合においても、送信制御部51gは、撮像画像中の人物のうち例えば公人や公開が許可された個人等についてのみ名前のテキスト化を要求する。
 また、送信制御部51gは、サーバ54に対して、検索用のテキスト化を依頼する。サーバ53は、不特定多数に公開されていることから、送信制御部51gは、個人を特定できない範囲で検索用のテキスト化を要求する。例えば、サーバ54のテキスト作成部54aは、図9と同様のフローによって、各情報のテキスト化を行う。
 特定の機器60、サーバ53,54は、データ受信モードでない場合には、ステップS121においてデータ表示が指示されているか否かを判定する。特定の機器60、サーバ53,54は、データ表示が指示されている場合には、ステップS122において、指定ファイルの画像を表示し(ステップS122)、この画像に付随しているメタデータのテキストを表示する(ステップS123)。
 特定の機器60、サーバ53,54は、ステップS124によって編集操作が行われているか否かを判定して、行われている場合には、編集操作に応じた編集を行う(ステップS125)。編集が終了すると(ステップS126)、特定の機器60、サーバ53,54は、メタデータであるバージョンデータを更新し、以後、表示終了が指示されるまで、ステップS122~S128を繰り返す。バージョンデータもデータ記述言語化されているので、バージョンデータの更新も容易に行うことができる。
 特定の機器60、サーバ53,54は、ステップS121においてデータ表示が指示されていないと判定した場合には、ステップS131においてデータ送信が指示されているか否かを判定する。外部の機器からのデータ送信が指示されている場合には、指定されているファイルをデータ要求を発生した機器に送信する(ステップS132)。これにより、撮影機器30において、特定の機器60、サーバ53,54等においてメタデータが作成された画像ファイル、編集が行われた画像ファイルを書き戻すことが可能である。
 このように本実施の形態においては、第1の実施の形態と同様の効果を有すると共に、メタデータのデータ記述言語化を外部機器に実行させることができ、比較的処理量が大きい処理であっても確実にデータ記述言語化することができるという効果を有する。
 なお、本実施の形態においては、全てのメタデータを送信し、依頼の仕方によって、必要なメタデータのみをサーバ等に作成させるようにしたが、全てのメタデータを送信するのではなく、データ記述言語化が必要なメタデータのみを送信するようにしてもよい。
 さらに、上記実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。
 本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。

 本出願は、2012年9月28日に日本国に出願された特願2012-217038号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (15)

  1.  被写体を撮影して得た撮影画像を出力する撮像部と、
     上記撮像画像の記録時にタグ形式をベースにしたメタデータを作成するメタデータ作成部と、
     上記撮像画像を外部機器に送信可能な通信部と、
     上記メタデータ作成部が作成した上記メタデータをデータ記述言語に変換するメタデータ更新部と、
     上記撮像画像の送信時に、上記メタデータ更新部が作成した上記メタデータを上記通信部によって上記外部機器に送信させる送信制御部と
     を具備したことを特徴とする撮影機器。
  2.  上記送信制御部は、上記外部機器の種別に応じて、上記通信部に送信させるメタデータを制限する
     ことを特徴とする請求項1に記載の撮影機器。
  3.  上記メタデータ更新部は、上記メタデータ作成部が作成したメタデータと上記データ記述言語との関係を記述したデータベースを利用して上記データ記述言語によるメタデータを作成する
     ことを特徴とする請求項1に記載の撮影機器。
  4.  上記メタデータ更新部は、上記メタデータ作成部が作成したメタデータと上記データ記述言語との関係を記述したデータベースを利用して上記データ記述言語によるメタデータを作成する
     ことを特徴とする請求項2に記載の撮影機器。
  5.  上記メタデータ更新部は、上記メタデータ作成部が作成した上記メタデータ以外のメタデータを上記データ記述言語によって作成する
     ことを特徴とする請求項1に記載の撮影機器。
  6.  上記メタデータ更新部は、上記メタデータ作成部が作成した上記メタデータ以外のメタデータを上記データ記述言語によって作成する
     ことを特徴とする請求項2に記載の撮影機器。
  7.  上記メタデータ更新部は、顔判定、文字判定、シーン判定及び動き判定のうちの少なくとも1つの判定結果によって、上記メタデータ作成部が作成した上記メタデータ以外のメタデータを上記データ記述言語によって作成する
     ことを特徴とする請求項5に記載の撮影機器。
  8.  上記メタデータ更新部は、顔判定、文字判定、シーン判定及び動き判定のうちの少なくとも1つの判定結果によって、上記メタデータ作成部が作成した上記メタデータ以外のメタデータを上記データ記述言語によって作成する
     ことを特徴とする請求項6に記載の撮影機器。
  9.  被写体を撮影して得た撮影画像を出力する撮像部と、上記撮像画像の記録時にタグ形式をベースにしたメタデータを作成するメタデータ作成部と、上記撮像画像を外部機器に送信可能な通信部と、上記撮像画像の送信時に、上記メタデータ作成部が作成した上記メタデータを上記通信部によって上記外部機器に送信させる送信制御部とを具備した撮影機器と、
     上記撮影機器から上記メタデータを受信し、上記撮影機器の依頼に従って受信した上記メタデータをデータ記述言語に変換するメタデータ更新部を備えた上記外部機器と
     を具備したことを特徴とする撮影システム。
  10.  上記送信制御部は、上記外部機器の種別に応じて、上記メタデータ更新部において上記データ記述言語に変換するメタデータを制限した上記依頼を上記通信部に送信させる
     ことを特徴とする請求項9に記載の撮影システム。
  11.  上記撮影機器は、上記メタデータ更新部が上記データ記述言語に変換した上記メタデータを上記通信部を介して受信して記録する
     ことを特徴とする請求項9に記載の撮影システム。
  12.  被写体を撮影して得た撮影画像を出力する撮像ステップと、
     上記撮像画像の記録時にタグ形式をベースにしたメタデータを作成するメタデータ作成ステップと、
     上記撮像画像を外部機器に送信する通信ステップと、
     上記メタデータ作成ステップにおいて作成した上記メタデータをデータ記述言語に変換するメタデータ更新ステップと、
     上記撮像画像の送信時に、上記メタデータ更新ステップにおいて作成した上記メタデータを上記通信ステップにおいて上記外部機器に送信させる送信制御ステップと
     を具備したことを特徴とする撮影方法。
  13.  上記送信制御ステップは、上記外部機器の種別に応じて、上記通信ステップにおいて送信させるメタデータを制限する
     ことを特徴とする請求項12に記載の撮影方法。
  14.  コンピュータに、
     被写体を撮影して得た撮影画像を出力する撮像ステップと、
     上記撮像画像の記録時にタグ形式をベースにしたメタデータを作成するメタデータ作成ステップと、
     上記撮像画像を外部機器に送信する通信ステップと、
     上記メタデータ作成ステップにおいて作成した上記メタデータをデータ記述言語に変換するメタデータ更新ステップと、
     上記撮像画像の送信時に、上記メタデータ更新ステップにおいて作成した上記メタデータを上記通信ステップにおいて上記外部機器に送信させる送信制御ステップと
    を実行させるための撮影制御プログラム。
  15.  上記送信制御ステップは、上記外部機器の種別に応じて、上記通信ステップにおいて送信させるメタデータを制限する
     ことを特徴とする請求項14に記載の撮影制御プログラム。
PCT/JP2013/076037 2012-09-28 2013-09-26 撮影機器、撮影システム、撮影方法及び撮影制御プログラム WO2014050956A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014538583A JP6059239B2 (ja) 2012-09-28 2013-09-26 撮影機器、撮影システム、撮影方法及び撮影制御プログラム
US14/657,836 US9973649B2 (en) 2012-09-28 2015-03-13 Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012217038 2012-09-28
JP2012-217038 2012-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/657,836 Continuation US9973649B2 (en) 2012-09-28 2015-03-13 Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program

Publications (1)

Publication Number Publication Date
WO2014050956A1 true WO2014050956A1 (ja) 2014-04-03

Family

ID=50388351

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/076037 WO2014050956A1 (ja) 2012-09-28 2013-09-26 撮影機器、撮影システム、撮影方法及び撮影制御プログラム

Country Status (3)

Country Link
US (1) US9973649B2 (ja)
JP (2) JP6059239B2 (ja)
WO (1) WO2014050956A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015186235A (ja) * 2014-03-26 2015-10-22 ソニー株式会社 イメージセンサ、および電子装置
US20170228929A1 (en) * 2015-09-01 2017-08-10 Patrick Dengler System and Method by which combining computer hardware device sensor readings and a camera, provides the best, unencumbered Augmented Reality experience that enables real world objects to be transferred into any digital space, with context, and with contextual relationships.
US10354340B2 (en) * 2015-10-13 2019-07-16 Dell Products L.P. Workflow to amplify content over a plurality of social media platforms in different regions
CN106302641B (zh) * 2016-07-27 2019-10-01 北京小米移动软件有限公司 一种上传文件的方法、装置和系统
US11468707B2 (en) * 2018-02-02 2022-10-11 Microsoft Technology Licensing, Llc Automatic image classification in electronic communications
WO2019183810A1 (zh) 2018-03-27 2019-10-03 华为技术有限公司 在局域网内共享数据的方法及电子设备
JP7380025B2 (ja) * 2019-09-30 2023-11-15 ソニーグループ株式会社 撮像装置、情報処理方法、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219383A (ja) * 2001-11-13 2003-07-31 Matsushita Electric Ind Co Ltd 画像を用いる通信方法及びその装置
JP2011055270A (ja) * 2009-09-02 2011-03-17 Canon Inc 情報送信装置及び情報送信方法
JP2011061265A (ja) * 2009-09-07 2011-03-24 Panasonic Corp メタデータ生成モジュール、撮像装置、撮像システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001339594A (ja) * 2000-05-25 2001-12-07 Fujitsu Ltd 画像処理システム
EP1311124A1 (en) * 2001-11-13 2003-05-14 Matsushita Electric Industrial Co., Ltd. Selective protection method for images transmission
JP2005217505A (ja) 2004-01-27 2005-08-11 Fuji Photo Film Co Ltd 撮像装置、ビューワソフト、通信ソフト及び画像管理ソフト
DE102004009617A1 (de) * 2004-02-27 2005-09-29 Siemens Ag Verfahren und Vorrichtung zur Codierung und Decodierung von strukturierten Dokumenten
US7525578B1 (en) * 2004-08-26 2009-04-28 Sprint Spectrum L.P. Dual-location tagging of digital image files
JP2006217220A (ja) * 2005-02-03 2006-08-17 Konica Minolta Photo Imaging Inc データ交信システム、撮像装置、および再生装置
JP2006270599A (ja) * 2005-03-24 2006-10-05 Fuji Xerox Co Ltd 画像読取装置およびその情報付加方法
JP2007060148A (ja) * 2005-08-23 2007-03-08 Canon Inc 画像データ送信装置及び方法、遠隔表示制御装置及びその制御方法、プログラム、記憶媒体
JP2007295547A (ja) * 2006-03-31 2007-11-08 Nikon Corp デジタルカメラ
JP5007564B2 (ja) * 2006-12-28 2012-08-22 株式会社ニコン 画像転送システム
US7847729B2 (en) * 2008-01-28 2010-12-07 Research In Motion Limited GPS pre-acquisition for geotagging digital photos
US8310556B2 (en) * 2008-04-22 2012-11-13 Sony Corporation Offloading processing of images from a portable digital camera
JP2012175468A (ja) * 2011-02-22 2012-09-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219383A (ja) * 2001-11-13 2003-07-31 Matsushita Electric Ind Co Ltd 画像を用いる通信方法及びその装置
JP2011055270A (ja) * 2009-09-02 2011-03-17 Canon Inc 情報送信装置及び情報送信方法
JP2011061265A (ja) * 2009-09-07 2011-03-24 Panasonic Corp メタデータ生成モジュール、撮像装置、撮像システム

Also Published As

Publication number Publication date
JP2017063497A (ja) 2017-03-30
JP6059239B2 (ja) 2017-01-11
JP6223534B2 (ja) 2017-11-01
JPWO2014050956A1 (ja) 2016-08-22
US20150189118A1 (en) 2015-07-02
US9973649B2 (en) 2018-05-15

Similar Documents

Publication Publication Date Title
JP6223534B2 (ja) 撮影機器、撮影方法及び撮影制御プログラム
JP4462331B2 (ja) 撮像装置、制御方法、プログラム
JP5385598B2 (ja) 画像処理装置及び画像管理サーバ装置及びそれらの制御方法及びプログラム
CN100515035C (zh) 数字照相机系统、图像存储装置和数字照相机
JP4333599B2 (ja) 情報処理装置、情報処理方法
JP6108755B2 (ja) 撮影機器、撮影画像送信方法及び撮影画像送信プログラム
JP7187395B2 (ja) 通信端末、通信端末の制御方法および通信システム
EP2549390A1 (en) Data processing device and data processing method
KR20120028491A (ko) 이미지 데이터 관리장치 및 방법
CN103167258B (zh) 用于选择图像捕获装置上捕获的图像的方法、系统和设备
US20130100329A1 (en) Image pickup apparatus
US9781293B2 (en) Apparatus and method for managing image files by displaying backup information
JP5047592B2 (ja) 画像付文章公開装置、プログラムおよび画像付文章公開方法
CN104978389B (zh) 方法、系统、服务器和客户端
JP2009301196A (ja) コンテンツ管理装置、コンテンツ管理方法及びコンテンツ管理プログラム
KR20100101960A (ko) 디지털 카메라, 사진 분류 시스템 및 방법
JP5990055B2 (ja) 撮像装置及びその制御方法
JP7415376B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5950589B2 (ja) 撮像装置、撮像装置の制御方法及びコンピュータプログラム
WO2023021759A1 (ja) 情報処理装置、情報処理方法
JP5372219B2 (ja) 画像送信機能付きカメラ及び画像送信方法
JP7552599B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5657753B2 (ja) 画像送信機能付きカメラ、表示制御方法、および画像送信方法
US20200073967A1 (en) Technique for saving metadata onto photographs
JP2023009680A (ja) 通信装置、制御方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13842061

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014538583

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13842061

Country of ref document: EP

Kind code of ref document: A1