WO2011058675A1 - 電子カメラ及び電子カメラ用の半導体集積回路装置 - Google Patents

電子カメラ及び電子カメラ用の半導体集積回路装置 Download PDF

Info

Publication number
WO2011058675A1
WO2011058675A1 PCT/JP2010/003176 JP2010003176W WO2011058675A1 WO 2011058675 A1 WO2011058675 A1 WO 2011058675A1 JP 2010003176 W JP2010003176 W JP 2010003176W WO 2011058675 A1 WO2011058675 A1 WO 2011058675A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
shooting
electronic camera
image data
Prior art date
Application number
PCT/JP2010/003176
Other languages
English (en)
French (fr)
Inventor
野口哲郎
森岩俊博
綿田和浩
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2011058675A1 publication Critical patent/WO2011058675A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device

Definitions

  • the present invention relates to an electronic camera and a semiconductor integrated circuit device for the electronic camera.
  • Digital video cameras and electronic cameras that record moving images and still images have rapidly improved in image quality even with video cameras and electronic cameras used by general users, as image data compression technology and recording media increase in capacity. is made of. Even when shooting by a general user, it has become possible to have the same effects as equipment used by professional photographers. However, since general users have little knowledge about shooting, it is difficult to use shooting parameters such as a video camera and an electronic camera like a professional photographer. Therefore, with regard to the setting of shooting parameters, in order to enable even ordinary users to perform better shooting, the standard shooting parameter setting values for various scenes are held inside the camera, and the optimal setting is selected from these. There is a method of letting a user select a thing. Further, a method using an automatic setting such as an autofocus function has become common.
  • Patent Document 1 describes a system for setting parameters for an image acquisition device of a camera using computer image processing.
  • the system described in Patent Document 1 automatically sets imaging parameters by analyzing an image to be taken and setting controls according to the subject, as an experienced photographer does. In this case, it operates in a fully automatic mode in which the best imaging parameters are selected, or in a “guide mode” in which the user is prompted for selection candidates when a number of alternative settings are appropriate.
  • Patent Document 2 describes a shooting assistance system that stores shooting conditions and shooting conditions for each scene in an electronic camera, and sets a shooting condition suitable for the scene when the user selects a scene to be shot. ing.
  • a general user who does not have knowledge of the camera is mainly shooting with a scene-specific selection function or shooting with an auto function.
  • the image may always be similar.
  • flash and exposure adjustments are performed unintentionally, resulting in an image that is not expected.
  • the background is not well taken out or the subject appears dark.
  • shooting according to the image it takes time and effort to take and check many times, and is troublesome.
  • Patent Document 1 provides optimal imaging settings (settings can be changed by the user) according to the surrounding situation by a scene analysis unit and a photograph expert. This optimum imaging setting can be changed by the user. However, when the final imaging result does not suit the user's preference, it is necessary to change the setting by the user and take a picture again. The user needs to shoot many times to tune the settings he likes.
  • the shooting parameter information set in the camera is general-purpose setting information for each scene, and it is not always possible to take a photograph that the user likes using this setting parameter. . Since the setting parameters are general and differences in performance and functions depending on the camera model are not reflected, even if you shoot using the same shooting parameter information, if the camera etc. are different, the shot image will be different, It is expected that the performance will vary.
  • An object of the present invention is to provide an electronic camera and a semiconductor integrated circuit device for the electronic camera that allow a user to easily take a favorite image without adjusting a setting parameter of the camera.
  • the electronic camera of the present invention is based on the image capturing unit, the image data captured by the image capturing unit, or the feature extraction unit that extracts image feature information from the sample image data designated in advance by the user, and the extracted feature information.
  • a shooting parameter setting unit that creates shooting parameters for setting shooting conditions, and the shooting unit performs shooting using the shooting parameters created by the shooting parameter setting unit.
  • the electronic camera is an electronic camera including a photographing unit and a communication unit that transmits and receives data to and from a server on a network.
  • the server includes image data photographed by the photographing unit or a user.
  • Feature extraction means for extracting image feature information from sample image data designated in advance, shooting parameter setting means for creating shooting parameters for setting shooting conditions based on the extracted feature information, and created shooting parameters
  • a transmission unit configured to transmit on the network, wherein the communication unit receives imaging parameters transmitted over the network, and the imaging unit performs imaging using the received imaging parameters.
  • a semiconductor integrated circuit device for an electronic camera is based on feature extraction means for extracting feature information of an image from image data photographed by photographing means or sample image data designated in advance by a user, and based on the extracted feature information. And a photographing parameter setting means for creating photographing parameters for setting photographing conditions.
  • FIG. 1 is a block diagram showing a configuration of an electronic camera and a semiconductor integrated circuit device for the electronic camera according to Embodiment 1 of the present invention.
  • the flowchart which shows the extraction process of the feature information of the feature extraction part of the electronic camera which concerns on the said Embodiment 1
  • the figure which shows an example of the method of the cutting-out process of the electronic camera which concerns on the said Embodiment 1.
  • the figure which shows an example of the outline feature extraction of the electronic camera which concerns on the said Embodiment 1.
  • FIG. 9 is a flowchart showing shooting parameter setting processing of the shooting parameter setting unit of the electronic camera according to the first embodiment.
  • the flowchart which shows the process of the image imaging part of the electronic camera which concerns on the said Embodiment 1.
  • FIG. The flowchart which shows the process of the similarity determination part of the electronic camera which concerns on the said Embodiment 1.
  • the figure which shows the example of a display of the image data of the electronic camera which concerns on the said Embodiment 1.
  • FIG. The block diagram which shows the structure of the electronic camera which concerns on Embodiment 2 of this invention.
  • the block diagram which shows the structure of the electronic camera which concerns on Embodiment 3 of this invention.
  • FIG. 1 is a block diagram showing a configuration of an electronic camera and a semiconductor integrated circuit device for the electronic camera according to Embodiment 1 of the present invention.
  • the electronic camera of this embodiment can be applied to a digital video camera or an electronic camera that records a moving image or a still image.
  • an electronic camera 100 includes an imaging optical system 101, an image sensor 102, a signal processing unit 103, an image photographing unit 104, an external interface (I / F) 105, a feature extracting unit 106, and a photographing parameter setting unit 107.
  • the imaging optical system 101 includes a plurality of lenses such as a focus lens that moves along the optical axis for adjusting the in-focus state and a zoom lens that moves along the optical axis to change the optical image of the subject. Then, the subject image is formed on the image sensor 102.
  • the image sensor 102 converts the object to be imaged by the imaging optical system 101 into an electric signal (video signal).
  • the image sensor 102 is a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the signal processing unit 103 performs well-known video signal processing such as gain adjustment, noise removal, gamma correction, aperture processing, and knee processing on the video signal output from the image sensor 102, and converts the video signal into an RGB format video signal. To do. Further, the signal processing unit 103 converts the generated RGB format signal into a Y / C format video signal.
  • the image capturing unit 104 outputs the captured image data to the feature extraction unit 106 and the data storage unit 108.
  • the shooting parameter information includes various shooting parameters such as exposure, shutter speed, auxiliary light, angle of view, shooting mode (close-up, night view, fireworks, sepia, monochrome, etc.), white balance, etc., and a message to the image display unit 111.
  • the text data to be shown is included.
  • the image capturing unit 104 captures an image by reflecting the imaging parameters on the imaging optical system 101, the image sensor 102, and the signal processing unit 103.
  • the image capturing unit 104 can capture a plurality of images continuously.
  • the image photographing unit 104 further includes an audio / video reproducing unit 104a that reproduces and outputs a message, and a memory 104b that stores a message for instructing the user to move the photographing position, adjust the zoom, and the like.
  • the imaging parameter information includes audio or video data that can be reproduced by the audio / video reproduction unit 104a, and information that indicates a message stored in the memory 104b.
  • External I / F 105 is an input port for inputting sample image data.
  • the feature extraction unit 106 takes in sample image data input from the external I / F 105 or image data captured by the image capturing unit 104 and extracts feature information.
  • the feature extraction unit 106 extracts feature information obtained by extracting setting data at the time of shooting from the Exif (Exchangeable Image File Format) portion of the image data, and feature information obtained by analyzing the image data and extracting information such as contour features, color features, and arrangements.
  • Image characteristics include shooting content (landscape, person, macro), shooting situation (daytime, sunset, night view), composition (near view, distant view, portrait, set, arrangement), and the like.
  • the feature extraction unit 106 uses information such as imaging conditions (exposure, shutter speed, auxiliary light, angle of view, shooting mode (monochrome, etc.), white balance).
  • contour features and color features for example, general edge extraction or histogram information extraction is used as a feature quantity extraction technique.
  • Edge extraction is a feature extraction method that calculates the contour of an object based on changes in image brightness. Since the place where the brightness in the image changes abruptly becomes the boundary of the object region, that is, the contour, the contour is calculated using a differential operation. From the extracted contour information, it is possible to infer the photographing content and composition. Further, the extraction of histogram information is feature extraction that is obtained by extracting a trend data distribution of light and darkness of an image, and it is possible to analogize the shooting situation and intention of the author from this information.
  • the shooting parameter setting unit 107 sets various parameters used for setting shooting conditions, and extracts and sets various parameters.
  • the shooting parameter setting unit 107 extracts parameters based on the feature information from the feature extraction unit 106. Specifically, the shooting parameter setting unit 107 selects a parameter from at least one of the shutter speed, aperture value, exposure time, focal length, white balance, and field angle parameters extracted from the information of the feature extraction unit 106. Set.
  • the shooting parameter setting unit 107 sets the set parameters in the image shooting unit 104 and stores them in the data storage unit 108.
  • the data storage unit 108 stores image data captured by the image capturing unit 104 and parameter setting values created by the capturing parameter setting unit 107.
  • the similarity determination unit 109 includes feature information (contour feature, color feature, arrangement) of the sample image extracted by the feature extraction unit 106 and feature information (contour information, color feature, arrangement) of the image data photographed by the image photographing unit 104.
  • the similarity of images is compared to determine the similarity.
  • the similarity determination unit 109 compares the image information of the sample image with various feature information included in the captured image captured by the image capturing unit 104, extracts and compares the differences, and compares the similarity information. Make a decision.
  • the similarity determination unit 109 acquires the shooting content and composition information included in the captured image captured by the image capturing unit 104, and the difference (such as arrangement) from the composition information acquired from the sample image. The difference is extracted to determine the similarity.
  • the similarity determination method described above is an example of a unit for determining similarity, and a similarity determination method other than the above can also be employed.
  • the similarity determination unit 109 determines the similarity of the shooting data and adds similarity information with the sample image to the image data shot by the image shooting unit 104.
  • the image selection unit 110 selects the image data displayed by the image display unit 111 on the screen.
  • the selected image is a target to be saved or deleted by the data storage unit 108.
  • the image display unit 111 displays the image data after the similarity determination process is performed by the similarity determination unit on the display.
  • the image display unit 111 may display the images in the order of high similarity added by the similarity determination unit 109.
  • the feature extraction unit 106 extracts image feature information from image data captured by the image capturing unit 104 or sample image data designated in advance by the user.
  • the shooting parameter setting unit 107 that creates shooting parameters for setting shooting conditions constitutes a semiconductor integrated circuit device 600 for an electronic camera.
  • FIG. 2 is a flowchart showing the feature information extraction processing of the feature extraction unit 106.
  • step S1 the feature extraction unit 106 reads a sample image that is a sample image to be compared.
  • step S2 the feature extraction unit 106 starts extracting feature information.
  • step S3 the feature extraction unit 106 analyzes the read sample image and analyzes the Exif information and the image information described in the header portion.
  • step S4 the feature extraction unit 106 determines whether or not the analyzed information is Exif information.
  • step S5 If the analyzed information is Exif information, the process proceeds to step S5, and since the other information is image information, the process proceeds to step S6.
  • step S5 the feature extraction unit 106 extracts feature information by extracting shooting parameters (shutter speed, aperture value, exposure time, focal length, angle of view) required at the time of camera shooting from the Exif information. create.
  • shooting parameters shutter speed, aperture value, exposure time, focal length, angle of view
  • step S6 the feature extraction unit 106 performs a segmenting process of a partial image that is a feature in the read sample image, and proceeds to steps S7 to S9.
  • the method of the clipping process will be described later with reference to FIG.
  • step S7 the feature extraction unit 106 extracts the contour information of the cut out partial image.
  • step S8 the feature extraction unit 106 extracts the color features of the cut out partial image.
  • step S9 the feature extraction unit 106 extracts the arrangement information of the cut out partial image.
  • step S10 the feature extraction unit 106 combines the information processed in steps S7 to S9 into one piece of information.
  • step S11 the feature extraction unit 106 creates feature information from the extracted image information.
  • step S11 the feature information for the cutout portion alone is created.
  • step S14 which will be described later, feature information of the entire sample image is created.
  • step S12 the feature extraction unit 106 determines whether there is any other information extracted as feature information in the image data. When there is other information cut out, the process returns to step S6, and when there is no other cut out information, the process proceeds to step S13.
  • step S13 the feature extraction unit 106 combines the feature information created from the Exif information in step S5 and the feature information created from the image information created in step S12 as one piece of information.
  • step S14 the feature extraction unit 106 creates feature information used by the shooting parameter setting unit 107 and the similarity determination unit 109, and ends this flow. Specifically, in step S14, the feature extraction unit 106 integrates the feature information extracted from the Exif information created in step S5 and the feature information extracted from the image information created in step S12 (step S14). Feature information is created from (see S13).
  • the feature information of the sample image is extracted, and the feature information used by the shooting parameter setting unit 107 and the similarity determination unit 109 is created.
  • FIG. 3 is a diagram illustrating an example of a clipping processing technique. This corresponds to the cut-out process in step S6.
  • the feature extraction unit 106 once displays the captured sample image 150 on the image display unit 111.
  • the user selects, on the screen, a portion that is desired to be designated as a feature portion with respect to an image 150 displayed on the image display unit 111.
  • FIG. 3 shows an example in which a feature part is selected with a touch pen as a technique for cutting out the feature part of the image displayed on the touch panel.
  • a selection method there is a selection method in which a user designates a range of a portion that is desired to be a feature portion on a displayed image by a rectangle.
  • a designation method there is a designation method in which the user designates the upper left portion and the lower right portion of the rectangle with a touch pen within a range including the characteristic portion. In this designation method, the user determines a rectangular selection range including a point designated by the touch pen, and the range becomes a cutout portion.
  • FIG. 3C when there are a plurality of parts to be designated as feature parts, the same selection operation is performed on another feature part. Note that a selection method other than selection using a touch pen may be employed.
  • FIG. 4 is a diagram illustrating an example of contour feature extraction. This corresponds to the contour information extraction process in step S7.
  • FIG. 4A shows images a, b, c, and d cut out by the cut-out process.
  • the edge portion is extracted as the contour information.
  • FIG. 5 is a diagram showing an example of color feature extraction. This corresponds to the color feature extraction process in step S8.
  • FIG. 5A shows images a, b, c, and d cut out by the cut-out process.
  • histogram information of color information of the image a is extracted.
  • the histogram information of the color information of the image c is extracted.
  • FIG. 6 is a diagram illustrating an example of position information extraction. This corresponds to the arrangement information extraction process in step S9.
  • FIG. 6A shows images a, b, c, and d cut out by the cut-out process.
  • the arrangement information of the image a is extracted.
  • the center coordinates of the partial image on the screen are extracted and stored.
  • the center coordinates can be obtained as the coordinates (A, B) of the center point of the frame circumscribing the partial image or the coordinates of the center point of the frame circumscribing the partial image.
  • FIG. 7 is a flowchart showing the shooting parameter setting process of the shooting parameter setting unit 107.
  • step S21 the shooting parameter setting unit 107 reads the feature information extracted from the feature extraction unit 106.
  • step S22 the shooting parameter setting unit 107 starts creating shooting parameters.
  • step S23 the shooting parameter setting unit 107 analyzes the feature information read in step S21 and divides it into feature information extracted from Exif and feature information extracted from image information.
  • step S24 it is determined whether or not only the feature information from the Exif information is included in the divided data. If only the feature information from the Exif information is obtained, the process proceeds to step S25, and if not only the feature information from the Exif information, the process proceeds to step S26.
  • step S24 there is feature information that combines both feature information from Exif information and feature information extracted from image information.
  • step S25 the shooting parameter setting unit 107 extracts shooting parameters such as a shutter speed, an aperture value, an exposure time, a focal length, and an angle of view necessary for shooting based on the feature information from the Exif information. Create temporary shooting parameters.
  • the shooting parameter setting unit 107 creates a parameter correction value for correcting the parameter based on the feature information from the Exif information and the feature information from the image information. For example, the shooting parameter setting unit 107 calculates a plurality of correction values based on feature information (color information, arrangement information) from image information and camera model information at the time of shooting read from the feature information of Exif. A parameter correction value that is the best in actual shooting is created. The shooting parameter setting unit 107 creates parameter correction values so that the shooting parameters do not greatly deviate from the processing limit of the general imaging device or the user's imaging device.
  • a method may be used in which a parameter value to be corrected for each manufacturer's camera model, weather, or the like is used as the correction parameter Table, and the correction value is calculated using the correction parameter Table.
  • the calculated plurality of correction values are assigned in order from the best one, and the shooting parameters are changed and set for each shooting.
  • the shooting parameter setting unit 107 creates a parameter correction value so that the shooting parameter does not greatly deviate from the processing limit of the general imaging device or the user's imaging device.
  • step S27 the shooting parameter setting unit 107 collects the temporary shooting parameters created in step S25 and the correction values created in S26 as one piece of information.
  • step S28 the shooting parameter setting unit 107 creates shooting parameters.
  • step S29 the shooting parameter setting unit 107 determines whether shooting is in a plurality of image shooting modes.
  • step S26 the process returns to step S26 in order to create correction values for the number of shots. If shooting is not in a plurality of image shooting modes, the shooting parameter setting process is terminated.
  • shooting parameter information used by the image shooting unit 104 is created.
  • FIG. 8 is a flowchart showing processing of the image capturing unit 104.
  • step S31 the image photographing unit 104 reads the photographing parameters extracted from the photographing parameter setting unit 107.
  • step S32 the image capturing unit 104 starts setting the image capturing process.
  • step S33 the image photographing unit 104 determines whether or not the read photographing parameters are for photographing a plurality of images. If the shooting parameter is not for shooting a plurality of images, the process proceeds to step S34 in which one shooting parameter is set. If the shooting parameter is for shooting a plurality of images, the process proceeds to step S35.
  • step S34 the image photographing unit 104 sets one photographing parameter as a photographing parameter at the time of photographing (shutter speed, aperture value, exposure time, focal length, angle of view, etc. necessary for photographing).
  • step S35 the image photographing unit 104 temporarily holds all the plurality of photographing parameters.
  • step S36 the image photographing unit 104 selects one of the photographing parameters held in step S35 and sets it as a photographing parameter at the time of photographing.
  • shooting parameters other than the shooting parameters set once are selected and set from the values held in step S35.
  • step S37 the image photographing unit 104 completes preparation for photographing by setting photographing parameters.
  • step S38 the image photographing unit 104 actually starts image photographing in response to a photographing start instruction such as pressing the photographing button.
  • a photographing start instruction such as pressing the photographing button.
  • step S39 the image photographing unit 104 determines whether or not photographing is in a plurality of image photographing modes.
  • step S36 If the shooting is in a plurality of image shooting modes, the process returns to step S36 until the required number is shot. When shooting is not in a plurality of image shooting modes, the image shooting process is terminated.
  • an image used by the feature extraction unit 106, the data storage unit 108, and the similarity determination unit 109 is taken.
  • FIG. 9 is a flowchart showing the processing of the similarity determination unit 109.
  • step S ⁇ b> 41 the similarity determination unit 109 is captured by the image capturing unit 104 stored in the data storage unit 108 and the sample image output from the feature extraction unit 106, the feature information of the image captured by the image capturing unit 104. Read image data.
  • step S42 the similarity determination unit 109 organizes the feature information of the sample image and the feature information of the image photographed by the image photographing unit 104 for each arrangement information extracted by the feature extracting unit 106. For example, the similarity determination unit 109 organizes data for each segmented portion from the arrangement information.
  • step S43 the similarity determination unit 109 extracts the feature information of the sample image and the captured image for each arrangement information. For example, the similarity determination unit 109 extracts information on the same segmented portion in the shooting data and the comparison data.
  • step S44 the similarity determination unit 109 compares the vector information of the contour portion.
  • step S45 the similarity determination unit 109 compares the color features and creates similarity information.
  • step S46 the similarity determination unit 109 holds the created similarity information.
  • step S47 the similarity determination unit 109 determines whether or not all the comparison data for each piece of arrangement information (comparison data for the cut-out portion) has been compared. If there is comparison data for each piece of arrangement information, the similarity determination unit 109 returns to step S43 and compares the similarities until there is no comparison data.
  • step S48 the similarity determination unit 109 calculates the similarity. This flow ends when the similarity is calculated.
  • FIG. 10 is a diagram illustrating a display example of image data processed by the image selection unit 110 and the image display unit 111.
  • FIG. 10A shows a display example of a comparison image and captured image data
  • FIG. 10B shows a selected image display example.
  • the image display unit 111 displays the comparison image and the thumbnail image of the captured image on the display.
  • Information about the similarity (No in this case) is added to the thumbnail image. That is, the image display unit 111 displays the thumbnail image of the captured image together with the comparison image with a number indicating the similarity so that the level of similarity in the captured image can be recognized.
  • the image display unit 111 provides a check box for a captured image, and enables selection of image data processing.
  • FIG. 10B shows a case where the image selected by the image selection unit 110 is enlarged.
  • the image selection unit 110 selects an image from the thumbnail images displayed in FIG. 10A by touching the screen of the thumbnail image that the user wants to check. Furthermore, the image selection unit 110 realizes image processing such as image enlargement and data deletion by touching the user (touching the thumbnail image twice).
  • the above is an example processed by the image selection unit 110 and the image display unit 111, and image display and selection other than those described above may be employed.
  • the electronic camera 100 reflects the sample image data specified in advance by the user or the image data captured by the image capturing unit 104 (the user's preference is reflected).
  • the feature extraction unit 106 extracts two types of information: feature information obtained by extracting setting data at the time of shooting from the Exif portion of image data, and feature information obtained by analyzing image data and extracting information such as contour features, color features, and arrangements.
  • the shooting parameter setting unit 107 creates shooting parameters for setting shooting conditions based on the feature information extracted by the feature extraction unit 106.
  • the image shooting unit 104 performs shooting using the shooting parameters created by the shooting parameter setting unit 107.
  • feature information can be extracted from a favorite digital image, and shooting parameters capable of shooting a similar image from the feature information can be automatically generated according to the camera model and user preference. Since the generated shooting parameters can be reflected on the electronic camera, it is possible to easily take a favorite photograph (best shot). Even a general user who does not have camera knowledge can easily shoot an image preferred by a photographer, such as a photograph taken by a professional photographer, without adjusting the camera parameters himself.
  • FIG. 11 is a block diagram showing a configuration of the electronic camera according to Embodiment 2 of the present invention.
  • the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG.
  • the electronic camera 200 further includes a timer unit 201 in addition to the electronic camera 100 of FIG. 1.
  • Time measuring unit 201 generates and outputs current time information.
  • the image capturing unit 104 stores the captured image data used for capturing in association with the captured image data when the captured image data is stored in the data storage unit 108. To remember. Further, the image capturing unit 104 stores the feature information of the captured image extracted by the feature extracting unit 106 in the data storage unit 108 in association with the captured image data.
  • the shooting parameter setting unit 107 performs the following operations when setting shooting parameters in the image shooting unit 104. That is, the shooting parameter setting unit 107 adds shooting count information in association with the shooting parameter, and updates the shooting time information stored in association with the shooting parameter with the current time information obtained from the timer unit 201.
  • the electronic camera 200 performs the following operations in addition to the operations described in the first embodiment.
  • the shooting parameter setting unit 107 selects one of the shooting parameters stored in the data storage unit 108 based on the shooting count information and shooting time information associated with the shooting parameters stored in the data storage unit 108. Are set in the image photographing unit 104.
  • the image capturing unit 104 captures images with the capturing parameters set by the capturing parameter setting unit 107.
  • the shooting parameter setting unit 107 performs a shooting parameter selection operation for selecting the shooting parameter with the largest number of shootings based on the shooting number information. Further, the shooting parameter setting unit 107 selects a shooting parameter that has been recently shot based on the shooting time information. The shooting parameter setting unit 107 selects the shooting parameter having the highest number of shootings in the current time zone based on the shooting number information, the shooting time information, and the current time information obtained from the time measuring unit 201.
  • the shooting parameter is created and used each time based on the feature information. Therefore, it is possible to shoot with shooting parameters set close to the user's preference.
  • the feature information extraction processing and the imaging parameter creation processing can be omitted, and more efficient imaging processing can be executed.
  • FIG. 12 is a block diagram showing a configuration of an electronic camera according to Embodiment 3 of the present invention.
  • the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG.
  • the electronic camera system includes an electronic camera 300, a server 400, and a network 500 that connects the electronic camera 300 and the server 400.
  • the electronic camera 300 removes the external I / F 105, the feature extraction unit 106, the imaging parameter setting unit 107, and the data storage unit 108 from the electronic camera 100 of FIG. 1, and provides a transmission / reception unit 301 and an interface 302.
  • the server 400 includes an external I / F 405 having a function similar to that of the external I / F 105, the feature extraction unit 106, the imaging parameter setting unit 107, and the data storage unit 108 provided on the electronic camera 100 side in FIG.
  • a parameter setting unit 407 and a data storage unit 408 are provided.
  • the server 400 also includes a transmission / reception unit 401 and an I / F 402 for transmitting / receiving data to / from the electronic camera 300 via the network 500.
  • the network 500 is a network configured by a mobile communication network, a public telephone network, a LAN, the Internet, and the like, and the type of network and the type of protocol such as a wired system or a wireless system are not particularly limited.
  • the transmission / reception units 301 and 401 process the image data captured by the image capturing unit 104 and the image data processed by the image capturing unit 104 and stored in the data storage unit 408 or the imaging parameter setting unit 407 via the I / Fs 302 and 402 and the network 500. Send and receive the shooting parameters created in.
  • the transmission / reception unit 301 has a small-capacity data storage area. This data storage area may be provided outside the transmission / reception unit 301.
  • the data storage unit 408 has a function of processing and storing the stored image data again in addition to the operation of the data storage unit 108 of the electronic camera 100 of FIG.
  • the electronic camera 300 performs the following operations in addition to the operations described in the first embodiment.
  • the server 400 transmits the imaging parameters created by the imaging parameter setting unit 407 to the electronic camera 300 via the transmission / reception unit 401, the I / F 402, and the network 500.
  • the electronic camera 300 receives the imaging parameter transmitted from the server 400 by the transmission / reception unit 301.
  • the electronic camera 300 sets the received shooting parameters in the image shooting unit 104.
  • the electronic camera 300 temporarily stores the image data captured by the image capturing unit 104 in a data storage area in the transmission / reception unit 301 and transmits it to the server 400 via the I / F 302 and the network 500 at an appropriate timing. .
  • the server 400 receives the image data transmitted from the electronic camera 300 by the transmission / reception unit 401 and stores it in the data storage unit 408.
  • the server 400 processes the image data stored in the data storage unit 408 into thumbnails, and stores the thumbnails in the data storage unit 408 again.
  • the server 400 transmits the processed image data to the electronic camera 300 via the transmission / reception unit 401, the I / F 402, and the network 500.
  • the electronic camera 300 receives the image data transmitted from the server 400 and stores it in the data storage area in the transmission / reception unit 301. Data stored in the data storage area in the transmission / reception unit 301 is displayed on the image display unit 111. The user can confirm the thumbnail displayed on the image display unit 111 and can arbitrarily select an image to be acquired by the procedure described in the first embodiment. In this way, the electronic camera 300 can acquire shooting parameters and image data from the server 400.
  • the configuration in the electronic camera 300 can be simplified, and the electronic The storage unit in the camera 300 can be reduced in capacity.
  • the present invention can be applied to any device as long as the electronic device has an imaging device that captures an optical image of a subject.
  • the present invention can be applied not only to digital cameras and professional video cameras, but also to information processing apparatuses such as mobile phones with cameras, personal digital assistants such as PDAs (Personal Digital Assistants), and personal computers equipped with electronic cameras.
  • the name of the electronic camera and the semiconductor integrated circuit device for the electronic camera is used.
  • this is for convenience of explanation, and an imaging device, a digital camera, or the like may be used.
  • each component constituting the electronic camera for example, the type of the imaging optical system, its drive unit and mounting method, and the type of the tracking processing unit are not limited to the above-described embodiment.
  • the electronic camera described above can also be realized by a program for causing the imaging method of the electronic camera to function.
  • This program is stored in a computer-readable recording medium.
  • the electronic camera and the semiconductor integrated circuit device for the electronic camera according to the present invention have a system in which standard shooting parameter setting values in various scenes are held, and an optimum one is selected from among them. It can be applied to an imaging device. It is useful as various imaging devices such as digital cameras and digital video cameras.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

 ユーザがカメラの設定パラメータを調整することなく、好みの画像を容易に撮影することができる電子カメラ及び電子カメラ用の半導体集積回路装置を提供すること。電子カメラ(100)は、ユーザが予め指定したサンプル画像データ、又は画像撮影部(104)によって撮影された画像データ(ユーザの好みが反映されているとする)を取り込んで特徴情報を抽出する。特徴抽出部(106)は、画像データのExif部分から撮影時の設定データを抽出した特徴情報と、画像データを分析し輪郭特徴、色彩特徴、配置などの情報を抽出した特徴情報の2つの情報を抽出する。撮影パラメータ設定部(107)は、特徴抽出部(106)により抽出された特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する。画像撮影部(104)は、撮影パラメータ設定部(107)により作成された撮影パラメータを用いて撮影を行う。

Description

電子カメラ及び電子カメラ用の半導体集積回路装置
 本発明は、電子カメラ及び電子カメラ用の半導体集積回路装置に関する。
 動画や静止画を記録するデジタルビデオカメラや電子カメラは、画像データの圧縮技術の向上や記録メディアの大容量化などにともない、一般ユーザが用いるビデオカメラや電子カメラでも高画質化が急速に進んできている。一般のユーザの撮影の際にも、プロの写真家が用いる機材と同様の効果を持たせることが可能となってきている。しかし、一般のユーザは、撮影に関する知識が少ないためビデオカメラや電子カメラなどの撮影パラメータの設定をプロフェッショナル写真家のように使いこなすことは難しい。そのため、撮影パラメータの設定に関しては、一般のユーザでもよりよい撮影を行えるようにするために、カメラ内部に様々なシーンにおける標準的な撮影パラメータの設定値を保持させておき、その中から最適なものをユーザに選択させるという方式がある。また、オートフォーカス機能などの自動設定を用いる方式が一般的になっている。
 特許文献1には、コンピュータ画像処理を使用して、カメラの画像獲得装置のためのパラメータを設定するシステムが記載されている。特許文献1記載のシステムは、熟練した写真家がするように、撮影されるべき画像を解析し、主題に従って制御を設定することによって、撮像パラメータを自動的に設定する。この場合、最良の撮像パラメータを選択する完全自動モードで作動するか、多数の代替設定が妥当である場合に、ユーザが選択候補をプロンプトされる「案内モード」で作動する。
 特許文献2には、電子カメラに撮影状況やシーン別の撮影条件を記憶させておき、ユーザが撮影しようとしているシーンを選択すると、そのシーンに合った撮影条件を設定する撮影補助システムが記載されている。
特開2002-10135号公報 特開2000-115686号公報
 上述したように、電子カメラでの撮影では、カメラの知識を持たない一般のユーザは、シーン別選択機能を用いての撮影やオート機能での撮影が主であるため、撮影された画像は、いつも同じような画像となってしまうことがある。また、意図せずにフラッシュや露出調整が行われて、予想とは違う画像となる場合が多い。例えば、背景がうまく取れていない、もしくは被写体が暗く写っている等である。イメージどおりの撮影をする場合には、何度も撮影をして確認するなどの手間がかかり、面倒である。
 特許文献1記載のシステムは、情景解析ユニット及び写真エキスパートにより、周辺状況に応じた最適撮像設定(ユーザによる設定変更可能)を提供している。この最適撮像設定は、ユーザによる設定変更可能である。しかしながら、最終的な撮像結果をユーザが好みに合わない場合、ユーザによる設定変更を実施し、再度撮影する必要がある。ユーザは、気に入った設定をチューニングするため何度も撮影が必要である。
 特許文献2記載の装置は、カメラに設定されている撮影パラメータ情報は、各シーンについて汎用的な設定情報であり、この設定パラメータを用いて、ユーザが好む写真の撮影が必ずしもできるとは限らない。設定パラメータが汎用的であり、かつカメラの機種による性能や機能の違いなどは反映されないので、同じ撮影パラメータ情報を用いて撮影を行ってもカメラなどが違えば撮影した画像は異なったものとなり、出来栄えにバラツキが生じることが予想される。
 本発明の目的は、ユーザがカメラの設定パラメータを調整することなく、好みの画像を容易に撮影することができる電子カメラ及び電子カメラ用の半導体集積回路装置を提供することである。
 本発明の電子カメラは、撮影手段と、前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段とを備え、前記撮影手段は、前記撮影パラメータ設定手段により作成された撮影パラメータを用いて撮影を行う構成を採る。
 本発明の電子カメラは、撮影手段と、ネットワーク上のサーバとの間でデータを送受信する通信手段とを備える電子カメラであって、前記サーバは、前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段と、作成した撮影パラメータを前記ネットワーク上に送信する送信手段とを備え、前記通信手段は、前記ネットワーク上に送信された撮影パラメータを受信し、前記撮影手段は、受信した撮影パラメータを用いて撮影を行う構成を採る。
 本発明の電子カメラ用の半導体集積回路装置は、撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段と、を備える構成を採る。
 本発明によれば、カメラの知識を持たない一般のユーザでも、カメラのパラメータを自分で調整することなく、プロの写真家が撮影したような、ユーザが好む画像を容易に撮影することができる。
本発明の実施の形態1に係る電子カメラ及び電子カメラ用の半導体集積回路装置の構成を示すブロック図 上記実施の形態1に係る電子カメラの特徴抽出部の特徴情報の抽出処理を示すフロー図 上記実施の形態1に係る電子カメラの切り出し処理の手法の一例を示す図 上記実施の形態1に係る電子カメラの輪郭特徴抽出の一例を示す図 上記実施の形態1に係る電子カメラの色彩特徴抽出の一例を示す図 上記実施の形態1に係る電子カメラの位置情報抽出の一例を示す図 上記実施の形態1に係る電子カメラの撮影パラメータ設定部の撮影パラメータ設定処理を示すフロー図 上記実施の形態1に係る電子カメラの画像撮影部の処理を示すフロー図 上記実施の形態1に係る電子カメラの類似度判定部の処理を示すフロー図 上記実施の形態1に係る電子カメラの画像データの表示例を示す図 本発明の実施の形態2に係る電子カメラの構成を示すブロック図 本発明の実施の形態3に係る電子カメラの構成を示すブロック図
 以下、本発明の実施の形態について図面を参照して詳細に説明する。
 (実施の形態1)
 図1は、本発明の実施の形態1に係る電子カメラ及び電子カメラ用の半導体集積回路装置の構成を示すブロック図である。本実施の形態の電子カメラは、動画や静止画を記録するデジタルビデオカメラや電子カメラに適用することができる。
 図1に示すように、電子カメラ100は、撮像光学系101、イメージセンサ102、信号処理部103、画像撮影部104、外部インターフェース(I/F)105、特徴抽出部106、撮影パラメータ設定部107、データ記憶部108、類似度判定部109、画像選択部110、及び画像表示部111を備える。
 撮像光学系101は、合焦状態調節のために光軸に沿って移動するフォーカスレンズ、被写体の光学的な像を変倍するため光軸に沿って移動するズームレンズといった複数枚のレンズから構成され、被写体像をイメージセンサ102上に結像させる。
 イメージセンサ102は、撮像光学系101により結像された被写対象を電気信号(映像信号)に変換する。例えば、イメージセンサ102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等である。
 信号処理部103は、イメージセンサ102から出力される映像信号に対して、ゲイン調整やノイズ除去、ガンマ補正、アパーチャ処理、ニー処理等の周知の映像信号処理を施し、RGB形式の映像信号に変換する。さらに、信号処理部103は、生成したRGB形式の信号を、Y/C形式の映像信号に変換する。
 画像撮影部104は、撮影した画像データを特徴抽出部106とデータ記憶部108に出力する。ユーザは、画像撮影の際には撮影パラメータ設定部107で作成された撮影パラメータを利用して撮影を行う。撮影パラメータ情報には、各種撮影パラメータ、例えば、露出、シャッター速度、補助光、画角、撮影モード(接写、夜景、花火、セピア、モノクロ等)、ホワイトバランスなどと、画像表示部111にメッセージを示すテキストデータなどが含まれる。
 画像撮影部104は、上記撮影パラメータを撮像光学系101やイメージセンサ102、信号処理部103に反映させて画像の撮影を行う。画像撮影部104は、連続で複数枚撮影する撮影が可能である。
 画像撮影部104は、メッセージを再生出力する音声・映像再生部104aと、撮影位置の移動やズーム調整などをユーザに指示するためのメッセージを記憶するメモリ104bとをさらに有する。この場合、上記撮像パラメータ情報には、音声・映像再生部104aで再生可能な音声又は映像データ、及び、メモリ104bに記憶されたメッセージを指示する情報が含まれる。
 外部I/F105は、サンプル画像データを入力する入力ポートである。
 特徴抽出部106は、外部I/F105により入力されたサンプル画像データ、又は画像撮影部104によって撮影された画像データを取り込んで特徴情報を抽出する。特徴抽出部106は、画像データのExif(Exchangeable Image File Format)部分から撮影時の設定データを抽出した特徴情報と、画像データを分析し輪郭特徴、色彩特徴、配置などの情報を抽出した特徴情報の2つの情報を抽出する。画像の特徴としては、撮影内容(風景、人物、マクロ)、撮影状況(日中、夕景、夜景)、構図(近景、遠景、ポートレート、集合、配置)などが含まれる。また、特徴抽出部106は、撮像条件(露出、シャッター速度、補助光、画角、撮影モード(モノクロ等)、ホワイトバランス)などの情報を用いる。
 輪郭特徴や色彩特徴の抽出については、例えば特徴量の抽出技術として一般的なエッジ抽出やヒストグラム情報の抽出を用いる。
 エッジ抽出とは、画像の明るさの変化によりオブジェクトの輪郭を算出する特徴抽出手法である。画像内の明るさが急激に変化する場所がオブジェクトの領域の境界、つまり輪郭となるため、その輪郭を微分演算を利用し算出する。抽出した輪郭情報からは、撮影内容や構図を類推することが可能である。また、ヒストグラム情報の抽出とは、画像の明暗の傾向データ分布を抽出して取得する特徴抽出であり、この情報から作者の撮影状況や意図を類推することが可能である。
 上述した輪郭特徴や色彩特徴の抽出方法は、例示であり、上記以外の抽出方法を採用してもよい。
 撮影パラメータ設定部107は、撮影条件を設定するために使用する各種パラメータの設定各種パラメータの抽出と設定を行う。撮影パラメータ設定部107は、特徴抽出部106からの特徴情報を基に、パラメータの抽出を行う。具体的には、撮影パラメータ設定部107は、特徴抽出部106の情報から抽出した、シャッター速度、絞り値、露出時間、焦点距離、ホワイトバランス、画角のパラメータのうち少なくともいずれか1つからパラメータを設定する。撮影パラメータ設定部107は、設定したパラメータを画像撮影部104に設定するとともにデータ記憶部108に記憶する。
 データ記憶部108は、画像撮影部104で撮影した画像データと、撮影パラメータ設定部107で作成されたパラメータ設定値とを記憶する。
 類似度判定部109は、特徴抽出部106で抽出したサンプル画像の特徴情報(輪郭特徴、色彩特徴、配置)と画像撮影部104で撮影した画像データの特徴情報(輪郭情報、色彩特徴、配置)から画像の類似度を比較して類似度の判定を行う。具体的には、類似度判定部109は、サンプル画像の画像情報と、画像撮影部104により撮影された撮影画像に含まれる各種の特徴情報を比較し、差分の抽出、比較を行い類似度の判定を行う。例えば、類似度判定部109は、画像撮影部104で撮影された撮影画像に含まれる撮影内容及び構図の情報を取得し、サンプル画像から取得した構図との構図の情報との差分(配置などの差)を抽出し類似度を判定する。
 なお前述した類似度判定の手法は、類似度を判定する部の例示であり、上記以外の類似度判定方法を採用することもできる。
 類似度判定部109は、上記撮影データの類似度の判定を行い、画像撮影部104で撮影された画像データにサンプル画像との類似度情報を付加する。
 画像選択部110は、画像表示部111により表示された画像データを、画面上で選択する。選択された画像は、データ記憶部108による保存や削除の対象となる。
 画像表示部111は、ディスプレイに類似度判定部で類似度の判定処理をした後の画像データを表示する。画像表示部111は、類似度判定部109で付加された類似度の高い順番で表示するようにしてもよい。
 図1の破線に示すように、画像撮影部104により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出部106と、抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定部107とは、電子カメラ用の半導体集積回路装置600を構成する。
 以下、上述のように構成された電子カメラ100の動作を説明する。
 〔特徴抽出部106の特徴情報抽出の動作〕
 図2は、特徴抽出部106の特徴情報の抽出処理を示すフローチャートである。
 ステップS1では、特徴抽出部106は、比較対象のサンプル画像となるサンプル画像を読み込む。
 ステップS2では、特徴抽出部106は、特徴情報抽出を開始する。
 ステップS3では、特徴抽出部106は、読み込んだサンプル画像を分析してヘッダ部分に記載されているExifの情報と画像情報を分析する。
 ステップS4では、特徴抽出部106は、分析された情報がExif情報であるか否かを判別する。
 分析された情報がExif情報である場合は、ステップS5に進み、それ以外は画像情報であるためステップS6に進む。
 ステップS5では、特徴抽出部106は、Exif情報からサンプル画像撮影時の撮影パラメータ(カメラ撮影時に必要とされるシャッター速度、絞り値、露出時間、焦点距離、画角)を抽出して特徴情報を作成する。
 ステップS6では、特徴抽出部106は、読み込んだサンプル画像において特徴となる部分の部分画像の切り出し処理を行い、ステップS7乃至ステップS9に進む。切り出し処理の手法については、図3により後述する。
 ステップS7では、特徴抽出部106は、切り出した部分画像の輪郭情報を抽出する。
 ステップS8では、特徴抽出部106は、切り出した部分画像の色彩特徴を抽出する。
 ステップS9では、特徴抽出部106は、切り出した部分画像の配置情報を抽出する。
 ステップS10では、特徴抽出部106は、ステップS7乃至ステップS9で処理された情報を一つの情報にまとめる。
 ステップS11では、特徴抽出部106は、抽出された画像情報から特徴情報を作成する。
 このステップS11では、切り出し部分単独の特徴情報の作成を行う。なお後述するステップS14では、サンプル画像全体の特徴情報を作成する。
 ステップS12では、特徴抽出部106は、画像データに特徴情報として切り出された情報が他にないか否かを判別する。他に切り出された情報がある場合は、ステップS6に戻り、他に切り出された情報がない場合は、ステップS13に進む。
 ステップS13では、特徴抽出部106は、ステップS5でExif情報から作成された特徴情報とステップS12で作成された画像情報から作成された特徴情報を一つの情報としてまとめる。
 ステップS14では、特徴抽出部106は、撮影パラメータ設定部107と類似度判定部109で使用する特徴情報を作成して本フローを終了する。具体的には、特徴抽出部106は、ステップS14では、ステップS5で作成したExif情報から抽出した特徴情報と、ステップS12で作成した画像情報から抽出した特徴情報を一つにまとめた情報(ステップS13参照)から特徴情報を作成する。
 上記フローにより、サンプル画像の特徴情報が抽出され、撮影パラメータ設定部107と類似度判定部109で使用する特徴情報を作成される。
 図3は、切り出し処理の手法の一例を示す図である。上記ステップS6の切り出し処理に対応する。
 図3Aに示すように、特徴抽出部106は、取り込んだサンプル画像150を一旦、画像表示部111に表示する。図3Bに示すように、ユーザは、画像表示部111に表示された画像150に対して、特徴部分として指定したい部分について画面上で選択をする。
 図3では、タッチパネルに表示した画像の特徴部分を切り出す手法としてタッチペンで特徴部分の選択をする例を示す。選択の手法としては、ユーザが、表示された画像上で特徴部分としたい箇所の範囲を矩形で指定する選択の手法がある。また指定の方法としては、ユーザが、特徴部分を含む範囲で矩形の左上部分と右下部分をタッチペンで指定する指定の方法がある。この指定の方法では、ユーザにより、タッチペンで指定した点を含む矩形の選択範囲が決定され、その範囲が切り出し部分となる。図3Cに示すように、特徴部分として指定したい部分が複数ある場合には、同様の選択操作を別の特徴部分に対して行う。なお、タッチペンを用いた選択以外の選択方法を採用することもできる。
 図4は、輪郭特徴抽出の一例を示す図である。上記ステップS7の輪郭情報抽出処理に対応する。
 エッジ抽出方法により画像の輪郭情報を抽出する例である。
 図4Aは、上記切り出し処理により切り出された画像a,b,c,dを示す。
 図4Bに示すように、画像aの場合は、エッジ部分が輪郭情報として抽出される。
 図4Cに示すように、画像cの場合は、色分け部分が輪郭情報として抽出される。
 図5は、色彩特徴抽出の一例を示す図である。上記ステップS8の色彩特徴抽出処理に対応する。
 切出した部分画像のヒストグラム情報の抽出の結果から色分布を求め、色彩特徴を抽出する例である。
 図5Aは、上記切り出し処理により切り出された画像a,b,c,dを示す。
 図5Bに示すように、画像aの色彩情報のヒストグラム情報を抽出する。
 図5Cに示すように、画像cの色彩情報のヒストグラム情報を抽出する。
 ヒストグラム情報抽出の際には画像そのままの色を処理する場合には処理に時間がかかる、また類似度判定部109での類似度比較の際の比較に時間がかかる可能性がある。このため、ある程度減色処理をしてヒストグラム情報の抽出を行うことも含む。
 図6は、位置情報抽出の一例を示す図である。上記ステップS9の配置情報抽出処理に対応する。
 図6Aは、上記切り出し処理により切り出された画像a,b,c,dを示す。
 図6Bに示すように、画像aの配置情報を抽出する。配置情報は、画面上での部分画像の中心座標を抽出して記憶する。中心座標は、部分画像に外接する枠の中心点の座標(A,B)又は部分画像に外接する枠の中心点の座標として得ることができる。
 〔撮影パラメータ設定部107の動作〕
 図7は、撮影パラメータ設定部107の撮影パラメータ設定処理を示すフローチャートである。
 ステップS21では、撮影パラメータ設定部107は、特徴抽出部106から抽出した特徴情報を読み込む。
 ステップS22では、撮影パラメータ設定部107は、撮影パラメータの作成を開始する。
 ステップS23では、撮影パラメータ設定部107は、ステップS21で読み込んだ特徴情報を分析して、Exifから抽出した特徴情報と画像情報から抽出した特徴情報とに分割する。
 ステップS24では、分割されたデータのうちExif情報からの特徴情報のみか否かを判別する。Exif情報からの特徴情報のみの場合は、ステップS25に進み、Exif情報からの特徴情報のみでない場合は、ステップS26に進む。上記ステップS24でExifからの特徴情報のみでない場合には、Exif情報からの特徴情報と画像情報から抽出した特徴情報両方あわせた特徴情報がある。
 ステップS25では、撮影パラメータ設定部107は、Exif情報からの特徴情報を基に、撮影時に必要なシャッター速度、絞り値、露出時間、焦点距離、画角などの撮影パラメータを抽出して、一旦、仮撮影パラメータを作成する。
 ステップS26では、撮影パラメータ設定部107は、Exif情報からの特徴情報と画像情報からの特徴情報を基に、パラメータを補正するパラメータ補正値を作成する。例えば、撮影パラメータ設定部107は、画像情報からの特徴情報(色彩情報、配置情報)とExifの特徴情報から読み取った撮影時のカメラの機種情報などを基に、複数の補正値を算出して実際の撮影の際にベストとなるパラメータ補正値を作成する。撮影パラメータ設定部107は、撮影パラメータが一般撮像機器又はユーザの撮像機器の処理限界を大きく逸脱しないようなパラメータ補正値を作成する。
 補正値の作成については、各メーカのカメラの機種や天候等に補正するパラメータの値を補正パラメータTableとしてもち、その補正パラメータTableを用いて補正値を算出するという手法を用いてもよい。複数の画像を撮影する際には、算出した複数の補正値をベストのものから順番に割り当てて撮影毎に撮影パラメータを変えて設定する。
 撮影パラメータ設定部107は、撮影パラメータが一般撮像機器又はユーザの撮像機器の処理限界を大きく逸脱しないようなパラメータ補正値を作成する。
 ステップS27では、撮影パラメータ設定部107は、ステップS25で作成した仮撮影パラメータとS26で作成した補正値とを一つの情報としてまとめる。
 ステップS28では、撮影パラメータ設定部107は、撮影パラメータを作成する。
 ステップS29では、撮影パラメータ設定部107は、撮影が複数の画像撮影モードとなっているか否かを判別する。
 撮影が複数の画像撮影モードとなっている場合には、撮影する枚数分の補正値を作成するためにステップS26に戻る。撮影が複数の画像撮影モードとなっていない場合は、本撮影パラメータ設定処理を終了する。
 上記フローにより、画像撮影部104で使用する撮影パラメータ情報が作成される。
 〔画像撮影部104の動作〕
 図8は、画像撮影部104の処理を示すフローチャートである。
 ステップS31では、画像撮影部104は、撮影パラメータ設定部107から抽出した撮影パラメータを読み込む。
 ステップS32では、画像撮影部104は、画像撮影処理の設定を開始する。
 ステップS33では、画像撮影部104は、読み込んだ撮影パラメータが複数の画像撮影用か否かを判別する。撮影パラメータが複数の画像撮影用でない場合は、一つの撮影パラメータを設定するステップS34に進む。撮影パラメータが複数の画像撮影用である場合は、ステップS35に進む。
 ステップS34では、画像撮影部104は、一つの撮影パラメータを撮影時の撮影パラメータ(撮影時に必要なシャッター速度、絞り値、露出時間、焦点距離、画角など)として設定する。
 ステップS35では、画像撮影部104は、複数の撮影パラメータをすべて一旦保持する。
 ステップS36では、画像撮影部104は、ステップS35で保持された撮影パラメータのうち一つを選択して撮影時の撮影パラメータとして設定する。複数の画像撮影の際には次の撮影時には、一度設定した撮影パラメータ以外の撮影パラメータを、ステップS35で保持した値から選択して設定する。
 ステップS37では、画像撮影部104は、撮影パラメータを設定して撮影をする準備を完了する。
 ステップS38では、画像撮影部104は、撮影ボタン押下等の撮影開始指示により実際に画像撮影を開始する。複数画像撮影の際には、撮影開始指示が一旦出されると、必要枚数分撮影するまで撮影を続ける。
 ステップS39では、画像撮影部104は、撮影が複数の画像撮影モードとなっているか否かを判別する。
 撮影が複数の画像撮影モードとなっている場合には、必要枚数が撮影されるまでステップS36に戻る。撮影が複数の画像撮影モードとなっていない場合は、本画像撮影処理を終了する。
 上記フローにより、特徴抽出部106とデータ記憶部108、類似度判定部109で使用する画像の撮影が行われる。
 〔類似度判定部109の動作〕
 図9は、類似度判定部109の処理を示すフローチャートである。
 ステップS41では、類似度判定部109は、特徴抽出部106から出力されるサンプル画像と画像撮影部104により撮影された画像の特徴情報とデータ記憶部108に保存された画像撮影部104で撮影された画像データとを読み込む。
 ステップS42では、類似度判定部109は、サンプル画像の特徴情報と画像撮影部104で撮影された画像の特徴情報を特徴抽出部106で抽出した配置情報毎に整理する。例えば、類似度判定部109は、配置情報から切り分け部分毎にデータを整理する。
 ステップS43では、類似度判定部109は、配置情報毎にサンプル画像と撮影画像の特徴情報を抜き出す。例えば、類似度判定部109は、撮影データと比較データで同じ切り分け部分の情報を抽出する。
 ステップS44では、類似度判定部109は、輪郭部分のベクトル情報の比較を行う。
 ステップS45では、類似度判定部109は、色彩特徴を比較して、類似度情報を作成する。
 ステップS46では、類似度判定部109は、作成した類似度情報を保持する。
 ステップS47では、類似度判定部109は、配置情報毎の比較データ(切り出し部分の比較データ)をすべて比較したか否かを判別する。類似度判定部109は、配置情報毎の比較データがある場合は、上記ステップS43に戻り比較データがなくなるまで類似度の比較を行う。
 配置情報毎の比較データがない場合は、ステップS48で、類似度判定部109は、類似度の算出を行う。類似度の算出により、本フローは終了する。
 上記フローにより、画像選択部110及び画像表示部111で使用する類似度情報の作成と撮影画像の出力が行われる。
 〔画像選択部110及び画像表示部111の動作〕
 図10は、画像選択部110及び画像表示部111で処理された画像データの表示例を示す図である。図10Aは、比較画像と撮影された画像データの表示例、図10Bは、選択した画像表示例を示す。
 図10Aに示すように、画像表示部111は、比較画像と、撮影された画像のサムネイル画像とをディスプレイに表示する。このサムネイル画像には、類似度に関する情報(ここではNo)が付加される。すなわち、画像表示部111は、比較画像と共に、撮影された画像のサムネイル画像に、撮影した中での類似度の高さがわかるように類似度を示す番号をつけて表示する。また、画像表示部111は、図10Aに示すように、撮影画像にチェックボックスを設けて画像データの処理の選択を可能する。
 図10Bは、画像選択部110により選択された画像を拡大した場合を示している。画像選択部110は、図10Aで表示されているサムネイル画像のうち、ユーザが確認したいサムネイル画像の画面上を触ることにより画像を選択する。さらに、画像選択部110は、ユーザが触れる(サムネイル画像を二回触れる)ことで、画像拡大やデータ削除等の画像の処理を実現する。
 以上は画像選択部110及び画像表示部111で処理される一例であり、上記以外の画像表示及び選択を採用してもよい。
 以上詳細に説明したように、本実施の形態によれば、電子カメラ100は、ユーザが予め指定したサンプル画像データ、又は画像撮影部104によって撮影された画像データ(ユーザの好みが反映されているとする)を取り込んで特徴情報を抽出する。特徴抽出部106は、画像データのExif部分から撮影時の設定データを抽出した特徴情報と、画像データを分析し輪郭特徴、色彩特徴、配置などの情報を抽出した特徴情報の2つの情報を抽出する。撮影パラメータ設定部107は、特徴抽出部106により抽出された特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する。画像撮影部104は、撮影パラメータ設定部107により作成された撮影パラメータを用いて撮影を行う。これにより、ユーザが予め選択した好みの画像データから撮影に関するパラメータを設定することができ、かつ、撮影された画像のうち類似する画像データのみを取得することが可能になる。したがって、専門的な知識や高度な撮影技術を持つことなく、ユーザの趣向に合う満足度の高い写真撮影をすることができる。
 例えば、好みのデジタル画像から特徴情報を抽出し、その特徴情報から同様の画像を撮影可能な撮影パラメータを、カメラの機種やユーザの好みに合わせて自動生成することができる。生成された撮影パラメータを電子カメラに反映させることができるので、容易に好みの写真(ベストショット)を撮影することができる。カメラの知識を持たない一般のユーザでも、カメラのパラメータを自分で調整することなく、プロの写真家が撮影したような、撮影者が好む画像を容易に撮影することができる。
 (実施の形態2)
 図11は、本発明の実施の形態2に係る電子カメラの構成を示すブロック図である。本実施の形態の説明に当たり、図11において、図1と同一構成部分には図1と同一番号を付して重複箇所の説明を省略する。
 図11に示すように、電子カメラ200は、図1の電子カメラ100にさらに計時部201を備える。
 計時部201は、現在の時刻情報を生成し出力する。
 画像撮影部104は、実施の形態1に記載した動作に加えて、撮影した画像データをデータ記憶部108に記憶する際に、撮影画像データに関連付けて撮影に使用した撮影パラメータをデータ記憶部108に記憶する。さらに、画像撮影部104は、特徴抽出部106により抽出された撮影画像の特徴情報を、撮影画像データに関連付けてデータ記憶部108に記憶する。
 撮影パラメータ設定部107は、実施の形態1に記載した動作に加えて、画像撮影部104に撮影パラメータを設定する際に下記の動作を行う。すなわち、撮影パラメータ設定部107は、撮影パラメータに関連付けて撮影回数情報を加算し、さらに撮影パラメータに関連付けて記憶する撮影時刻情報について、計時部201から得られる現在の時刻情報により更新する。
 電子カメラ200は、実施の形態1に記載した動作に加えて以下の動作を行う。
 撮影パラメータ設定部107は、データ記憶部108に記憶している撮影パラメータに関連付けられた撮影回数情報や撮影時刻情報を基に、データ記憶部108に記憶している撮影パラメータの一つを選択して画像撮影部104に設定する。画像撮影部104は、撮影パラメータ設定部107により設定された撮影パラメータで撮影する。
 例えば、撮影パラメータ設定部107は、撮影回数情報を基に最も撮影回数の多い撮影パラメータを選択する撮影パラメータの選択動作を行う。また、撮影パラメータ設定部107は、撮影時刻情報を基に最近撮影した撮影パラメータを選択する。また、撮影パラメータ設定部107は、撮影回数情報と撮影時刻情報と計時部201から得られる現在の時刻情報を基に現在の時間帯で最も撮影回数の多い撮影パラメータを選択する。
 このように、本実施の形態では、データ記憶部108に記憶している撮影パラメータの一つを選択して撮影に使用することにより、撮影パラメータを、特徴情報を基にその都度作成して用いることなく、ユーザの好みに近い設定の撮影パラメータで撮影することができる。
 また、過去に撮影した画像をサンプル画像として使用するようにすれば、特徴情報の抽出処理及び撮影パラメータの作成処理を省略することができ、より効率的な撮影処理を実行することができる。
 (実施の形態3)
 図12は、本発明の実施の形態3に係る電子カメラの構成を示すブロック図である。本実施の形態の説明に当たり、図12において、図1と同一構成部分には図1と同一番号を付して重複箇所の説明を省略する。
 図12に示すように、電子カメラシステムは、電子カメラ300と、サーバ400と、電子カメラ300とサーバ400とを繋ぐネットワーク500とから構成される。
 電子カメラ300は、図1の電子カメラ100から外部I/F105、特徴抽出部106、撮影パラメータ設定部107、及びデータ記憶部108を取り去り、送受信部301及びインターフェース302を設ける。
 サーバ400は、図1の電子カメラ100側が備える外部I/F105、特徴抽出部106、撮影パラメータ設定部107、及びデータ記憶部108と同様の機能を有する外部I/F405、特徴抽出部406、撮影パラメータ設定部407、及びデータ記憶部408を備える。また、サーバ400は、ネットワーク500を介して電子カメラ300側とデータを送受信するための送受信部401及びI/F402を備える。
 ネットワーク500は、移動体通信網、公衆電話網、LANやインターネットなどから構成するネットワークであり、有線系又は無線系などネットワークの種類とプロトコルの種類は特に問わない。
 送受信部301,401は、I/F302,402及びネットワーク500を介して、画像撮影部104で撮影された画像データ、画像データを加工しデータ記憶部408に記憶した画像データ又は撮影バラメータ設定部407で作成された撮影パラメータを送受信する。
 送受信部301は、内部に小容量のデータ記憶領域を持つ。このデータ記憶領域は、送受信部301の外部に設けてもよい。
 データ記憶部408は、図1の電子カメラ100のデータ記憶部108の動作に加えて、記憶された画像データを加工し、再度記憶する機能を有する。
 電子カメラ300は、実施の形態1に記載した動作に加えて以下の動作を行う。
 サーバ400は、撮影パラメータ設定部407により作成した撮影パラメータを、送受信部401、I/F402及びネットワーク500を経由して電子カメラ300に送信する。
 電子カメラ300は、サーバ400から送信された撮影パラメータを、送受信部301により受信する。電子カメラ300は、受信した撮影パラメータを画像撮影部104に設定する。
 一方、電子カメラ300は、画像撮影部104により撮影した画像データを、送受信部301内のデータ記憶領域に一旦記憶し、適当なタイミングでI/F302及びネットワーク500を経由してサーバ400に送信する。
 サーバ400は、電子カメラ300から送信された画像データを、送受信部401により受信し、データ記憶部408に記憶する。サーバ400は、データ記憶部408に記憶された画像データを、サムネイルに加工し、再度データ記憶部408に記憶する。
 サーバ400は、加工した画像データを、送受信部401、I/F402及びネットワーク500を経由して電子カメラ300に送信する。
 電子カメラ300は、サーバ400から送信された画像データを受信し、送受信部301内のデータ記憶領域に記憶する。送受信部301内のデータ記憶領域に記憶されたデータは、画像表示部111に表示される。ユーザは、画像表示部111に表示されたサムネイルを確認し、実施の形態1で述べた手順により取得したい画像を任意に選択することができる。このようにして、電子カメラ300は、サーバ400から撮影パラメータ及び画像データを取得することができる。
 本実施の形態によれば、演算処理が必要な特徴抽出部406、及び撮影パラメータ部407をサーバ400側に設置しているので、電子カメラ300内の構成を簡素にすることができ、また電子カメラ300内の記憶部を小容量にすることができる。
 以上の説明は本発明の好適な実施の形態の例証であり、本発明の範囲はこれに限定されることはない。被写体の光学像を撮像する撮像装置を有する電子機器であればどのような装置にも適用できる。例えば、デジタルカメラ及び業務用ビデオカメラは勿論のこと、カメラ付き携帯電話機、PDA(Personal Digital Assistants)等の携帯情報端末、及び電子カメラを備えるパソコン等の情報処理装置にも適用可能である。
 また、本実施の形態では、電子カメラ及び電子カメラ用の半導体集積回路装置という名称を用いたが、これは説明の便宜上であり、撮影装置やデジタルカメラ等であってもよい。
 さらに、上記電子カメラを構成する各構成部、例えば撮像光学系の種類、その駆動部及び取付け方法など、さらには追尾処理部の種類などは前述した実施の形態に限られない。
 以上説明した電子カメラは、この電子カメラの撮像方法を機能させるためのプログラムでも実現される。このプログラムはコンピュータで読み取り可能な記録媒体に格納されている。
 2009年11月10日出願の特願2009-257285の日本出願に含まれる明細書、図面及び要約書の開示内容は、すべて本願に援用される。
 本発明に係る電子カメラ及び電子カメラ用の半導体集積回路装置は、様々なシーンにおける標準的な撮影パラメータの設定値を保持させておき、その中から最適なものをユーザに選択させるという方式をもつ撮像装置に適用することができる。デジタルカメラ、デジタルビデオカメラといった種々の撮像装置として有用である。
 100,200,300 電子カメラ
 101 撮像光学系
 102 イメージセンサ
 103 信号処理部
 104 画像撮影部
 105,405 外部インターフェース
 106,406 特徴抽出部
 107,407 撮影パラメータ設定部
 108,408 データ記憶部
 109 類似度判定部
 110 画像選択部
 111 画像表示部
 201 計時部
 301,401 送受信部
 302,402 インターフェース
 400 サーバ
 500 ネットワーク
 600 電子カメラ用の半導体集積回路装置

Claims (16)

  1.  撮影手段と、
     前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、
     抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段とを備え、
     前記撮影手段は、前記撮影パラメータ設定手段により作成された撮影パラメータを用いて撮影を行う電子カメラ。
  2.  前記特徴抽出手段は、画像データのExif(Exchangeable Image File Format)情報から撮影時の設定データを特徴情報として抽出する、請求項1記載の電子カメラ。
  3.  前記特徴抽出手段は、画像データの輪郭特徴、色彩特徴、配置を分析して画像の特徴情報を抽出する、請求項1記載の電子カメラ。
  4.  前記撮影パラメータは絞り、露出時間、焦点距離、画角の設定情報を含む、請求項1記載の電子カメラ。
  5.  前記撮影パラメータ設定手段は、前記特徴情報に基づいて、複数の撮影パラメータを作成する、請求項1記載の電子カメラ。
  6.  前記撮影手段は、前記複数の撮影パラメータ毎に撮影する、請求項1記載の電子カメラ。
  7.  前記撮影パラメータ設定手段により作成された複数の撮影パラメータを記憶する記憶手段と、
     前記記憶手段に記録されている複数の撮影パラメータのうち、いずれか一つを選択する撮影パラメータ選択手段と、を備える請求項1記載の電子カメラ。
  8.  前記記憶手段は、前記撮影パラメータを選択した回数を、該撮影パラメータに関連付けて記憶する、請求項7記載の電子カメラ。
  9.  計時手段を備え、
     前記記憶手段は、前記撮影パラメータを選択した時刻を、該撮影パラメータに関連付けて記憶する、請求項7記載の電子カメラ。
  10.  画像表示手段と、
     画像データを記憶する画像記憶手段と、
     前記画像記憶手段に記憶された画像データを前記画像表示手段に複数表示し、表示された画像の中から任意の画像を一つ又は複数選択する画像選択手段と、を備える請求項1記載の電子カメラ。
  11.  前記画像選択手段は、前記画像表示手段に表示した画像のうち、選択した画像データ以外の画像データを前記画像記憶手段から削除する、請求項10記載の電子カメラ。
  12.  前記特徴抽出手段により抽出したサンプル画像データの特徴情報と前記撮影手段により撮影した画像データの特徴情報とから画像の類似度を判定する類似度判定手段をさらに備える請求項10記載の電子カメラ。
  13.  前記類似度判定手段は、前記画像の類似度の高さに応じてランク付けし、
     前記画像表示手段は、画像データに、前記ランク付けの結果を付加して表示する、請求項12記載の電子カメラ。
  14.  撮影手段と、ネットワーク上のサーバとの間でデータを送受信する通信手段とを備える電子カメラであって、
     前記サーバは、前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、
     抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段と、
     作成した撮影パラメータを前記ネットワーク上に送信する送信手段とを備え、
     前記通信手段は、前記ネットワーク上に送信された撮影パラメータを受信し、
     前記撮影手段は、受信した撮影パラメータを用いて撮影を行う電子カメラ。
  15.  前記サーバは、画像データのサムネイルを作成し、
     前記送信手段は、作成されたサムネイルを送信する請求項14記載の電子カメラ。
  16.  撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、
     抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段と、を備える電子カメラ用の半導体集積回路装置。
     
PCT/JP2010/003176 2009-11-10 2010-05-10 電子カメラ及び電子カメラ用の半導体集積回路装置 WO2011058675A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-257285 2009-11-10
JP2009257285A JP2011103548A (ja) 2009-11-10 2009-11-10 電子カメラ

Publications (1)

Publication Number Publication Date
WO2011058675A1 true WO2011058675A1 (ja) 2011-05-19

Family

ID=43991351

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/003176 WO2011058675A1 (ja) 2009-11-10 2010-05-10 電子カメラ及び電子カメラ用の半導体集積回路装置

Country Status (2)

Country Link
JP (1) JP2011103548A (ja)
WO (1) WO2011058675A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239861A (ja) * 2012-05-14 2013-11-28 Freebit Co Ltd 画像撮影システム
WO2018170727A1 (en) * 2017-03-21 2018-09-27 Sony Mobile Communications Inc. Method and apparatus for determining pickup parameters and electronic equipment

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5889690B2 (ja) * 2012-03-27 2016-03-22 株式会社ゼンリンデータコム 撮影システム及び撮影管理サーバ
JP2013211719A (ja) * 2012-03-30 2013-10-10 Nikon Corp デジタルカメラ
US9386212B2 (en) 2012-05-30 2016-07-05 Sony Corporation Information processing device, system and storage medium to provide shooting parameters
WO2013183338A1 (ja) 2012-06-07 2013-12-12 ソニー株式会社 情報処理装置および記憶媒体
JP6042881B2 (ja) * 2012-10-02 2016-12-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像表示方法、画像表示装置、及び、画像提供方法
JP5847070B2 (ja) 2012-12-27 2016-01-20 オリンパス株式会社 サーバ装置及び撮影装置
JP6487666B2 (ja) * 2014-10-31 2019-03-20 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
EP3018892A1 (en) * 2014-10-31 2016-05-11 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US11665273B2 (en) 2020-03-03 2023-05-30 Samsung Electronics Co., Ltd. System and method for image color management

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108915A (ja) * 2004-10-01 2006-04-20 Canon Inc 画像撮影装置及び画像撮影方法
JP2006186695A (ja) * 2004-12-28 2006-07-13 Casio Comput Co Ltd カメラ装置、及び撮影条件設定方法
JP2008066886A (ja) * 2006-09-05 2008-03-21 Olympus Imaging Corp カメラ、通信制御装置、撮影技術援助システム、撮影技術援助方法、プログラム
JP2009521134A (ja) * 2005-12-22 2009-05-28 オリンパス株式会社 シーン認識撮影システム及びシーン認識撮影方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108915A (ja) * 2004-10-01 2006-04-20 Canon Inc 画像撮影装置及び画像撮影方法
JP2006186695A (ja) * 2004-12-28 2006-07-13 Casio Comput Co Ltd カメラ装置、及び撮影条件設定方法
JP2009521134A (ja) * 2005-12-22 2009-05-28 オリンパス株式会社 シーン認識撮影システム及びシーン認識撮影方法
JP2008066886A (ja) * 2006-09-05 2008-03-21 Olympus Imaging Corp カメラ、通信制御装置、撮影技術援助システム、撮影技術援助方法、プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239861A (ja) * 2012-05-14 2013-11-28 Freebit Co Ltd 画像撮影システム
CN104285432A (zh) * 2012-05-14 2015-01-14 飞比特网络股份有限公司 图像拍摄系统
WO2018170727A1 (en) * 2017-03-21 2018-09-27 Sony Mobile Communications Inc. Method and apparatus for determining pickup parameters and electronic equipment

Also Published As

Publication number Publication date
JP2011103548A (ja) 2011-05-26

Similar Documents

Publication Publication Date Title
WO2011058675A1 (ja) 電子カメラ及び電子カメラ用の半導体集積回路装置
US10469746B2 (en) Camera and camera control method
US8106995B2 (en) Image-taking method and apparatus
KR101342477B1 (ko) 동영상을 촬영하는 촬상 장치, 및 촬상 처리 방법
JP4574459B2 (ja) 撮影装置及びその制御方法及びプログラム及び記憶媒体
JP4757113B2 (ja) 撮像装置及びその制御方法、情報処理装置、印刷装置、印刷データ生成方法
KR100942634B1 (ko) 화상보정장치 및 화상보정방법과 컴퓨터 판독 가능한 매체
JP4787180B2 (ja) 撮影装置及び撮影方法
JP4982997B2 (ja) 画像処理装置
JP2001251551A (ja) 電子カメラ
KR101739379B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
JP3859131B2 (ja) デジタルカメラ
JP4760302B2 (ja) 撮像装置
JP4645413B2 (ja) 撮像装置
JP5494744B2 (ja) 撮像装置、制御方法及びプログラム
US7796163B2 (en) System for and method of taking image based on objective body in a taken image
KR101737086B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
JP2007142702A (ja) 画像処理装置
JP2002305684A (ja) 撮像システム及びプログラム
JP2007124278A (ja) 撮像装置
JP4049291B2 (ja) デジタルスチルカメラ
JP2010087598A (ja) 撮影装置及び撮影制御方法ならびにそのプログラム、画像表示装置及び画像表示方法ならびにそのプログラム、撮影システム及びその制御方法ならびにそのプログラム
JP6660236B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP4977996B2 (ja) 撮像装置
JP2008005248A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10829643

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10829643

Country of ref document: EP

Kind code of ref document: A1