JP2011103548A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2011103548A
JP2011103548A JP2009257285A JP2009257285A JP2011103548A JP 2011103548 A JP2011103548 A JP 2011103548A JP 2009257285 A JP2009257285 A JP 2009257285A JP 2009257285 A JP2009257285 A JP 2009257285A JP 2011103548 A JP2011103548 A JP 2011103548A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
image
imaging
information
unit
means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009257285A
Other languages
Japanese (ja)
Inventor
Toshihiro Moriiwa
Tetsuo Noguchi
Kazuhiro Watada
俊博 森岩
和浩 綿田
哲郎 野口
Original Assignee
Panasonic Corp
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control; Control of cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in, e.g. mobile phones, computers or vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control; Control of cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in, e.g. mobile phones, computers or vehicles
    • H04N5/23222Computer-aided capture of images, e.g. transfer from script file into camera, camera control checks quality of taken pictures, gives advices how to arrange picture composition or decides when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/235Circuitry or methods for compensating for variation in the brightness of the object, e.g. based on electric image signals provided by an electronic image sensor
    • H04N5/2352Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera allowing a user to easily image a desired image without adjusting a setting parameter of the camera. <P>SOLUTION: The electronic camera 100 receives sample image data designated in advance by a user, or image data (based on the reference of the user) imaged by an image capturing part 104 to extract feature information therefrom. A feature extraction part 106 extracts two pieces of information such as feature information obtained by extracting setting data in imaging from an Exif part of the image data, and feature information obtained by extracting information such as a contour feature, hue feature, or arrangement by analyzing the image data. An imaging parameter setting part 107 creates an imaging parameter for setting an imaging condition based on the feature information extracted by the feature extraction part 106. An image capturing part 104 performs imaging by using the imaging parameter created by the imaging parameter setting part 107. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、電子カメラに関する。 The present invention relates to an electronic camera.

動画や静止画を記録するデジタルビデオカメラや電子カメラは、画像データの圧縮技術の向上や記録メディアの大容量化などにともない、一般ユーザが用いるビデオカメラや電子カメラでも高画質化が急速に進んできている。 Digital video camera or an electronic camera which records a moving image or still image, with the like capacity improved and the recording medium of the compression technique of the image data, image quality in video cameras and electronic cameras a general user using rapidly progressed is made of. 一般のユーザの撮影の際にも、プロの写真家が用いる機材と同様の効果を持たせることが可能となってきている。 At the time of the shooting of a general user also, it has become possible to have the same effect as the equipment professional photographers use. しかし、一般のユーザは、撮影に関する知識が少ないためビデオカメラや電子カメラなどの撮影パラメータの設定をプロフェッショナル写真家のように使いこなすことは難しい。 However, the general user, it is difficult to master a set of imaging parameters, such as a video camera or a digital camera because there is little knowledge of photography as a professional photographer. そのため、撮影パラメータの設定に関しては、一般のユーザでもよりよい撮影を行えるようにするために、カメラ内部に様々なシーンにおける標準的な撮影パラメータの設定値を保持させておき、その中から最適なものをユーザに選択させるという方式がある。 Therefore, with respect to the setting of the imaging parameters, in order to allow better imaging in general users, allowed to retain the set value of the standard imaging parameters in various scenes in the camera, optimum from the there is a method that selectively things to the user. また、オートフォーカス機能などの自動設定を用いる方式が一般的になっている。 Further, a method of using an automatic settings such as autofocus function has become common.

特許文献1には、コンピュータ画像処理を使用して、カメラの画像獲得装置のためのパラメータを設定するシステムが記載されている。 Patent Document 1, using a computer image processing system for setting the parameters for the camera image acquisition apparatus is described. 特許文献1記載のシステムは、熟練した写真家がするように、撮影されるべき画像を解析し、主題に従って制御を設定することによって、撮像パラメータを自動的に設定する。 System described in Patent Document 1, as skilled photographers, analyzes the image to be photographed, by setting the control in accordance with the subject, automatically sets the imaging parameters. この場合、最良の撮像パラメータを選択する完全自動モードで作動するか、多数の代替設定が妥当である場合に、ユーザが選択候補をプロンプトされる「案内モード」で作動する。 In this case, it works in a fully automatic mode to select the best imaging parameters, if the number of alternative settings is valid, operating in "guide mode" the user is prompted to select candidates.

特許文献2には、電子カメラに撮影状況やシーン別の撮影条件を記憶させておき、ユーザが撮影しようとしているシーンを選択すると、そのシーンに合った撮影条件を設定する撮影補助システムが記載されている。 Patent Document 2, the electronic camera may be stored the recording conditions and the scene-by-scene shooting conditions and selects a scene that the user is attempting to imaging, imaging assist system for setting the matching photographing condition to the scene is described ing.

特開2002−10135号公報 JP 2002-10135 JP 特開2000−115686号公報 JP 2000-115686 JP

上述したように、電子カメラでの撮影では、カメラの知識を持たない一般のユーザは、シーン別選択機能を用いての撮影やオート機能での撮影が主であるため、撮影された画像は、いつも同じような画像となってしまうことがある。 As described above, in the shooting in the electronic camera, the general user having no knowledge of the camera, for shooting in shooting and automatic system of using a by-scene selection function is mainly captured image, it may sometimes always been the same kind of image. また、意図せずにフラッシュや露出調整が行われて、予想とは違う画像となる場合が多い。 In addition, flash or exposure adjustment is performed unintentionally, often a different image to expectation. 例えば、背景がうまく取れていない、もしくは被写体が暗く写っている等である。 For example, the background is not taken well, or and the like in which the subject is captured dark. イメージどおりの撮影をする場合には、何度も撮影をして確認するなどの手間がかかり、面倒である。 In the case of the shooting of the image as expected, it takes time and effort, such as to confirm the shot many times, it is troublesome.

特許文献1記載のシステムは、情景解析ユニット及び写真エキスパートにより、周辺状況に応じた最適撮像設定(ユーザによる設定変更可能)を提供している。 System described in Patent Document 1, the scene analysis unit and photographic experts, providing optimal imaging settings according to surrounding conditions (set by the user can change). この最適撮像設定は、ユーザによる設定変更可能である。 The optimal imaging setting is configurable by the user. しかしながら、最終的な撮像結果をユーザが好みに合わない場合、ユーザによる設定変更を実施し、再度撮影する必要がある。 However, if the final imaging result the user does not match the taste and then performs the setting change by the user, it is necessary to shoot again. ユーザは、気に入った設定をチューニングするため何度も撮影が必要である。 The user is required to be taken several times to tune your favorite settings.

特許文献2記載の装置は、カメラに設定されている撮影パラメータ情報は、各シーンについて汎用的な設定情報であり、この設定パラメータを用いて、ユーザが好む写真の撮影が必ずしもできるとは限らない。 Device described in Patent Document 2, shooting parameter information set in the camera, for each of the scenes is a generic setup information, by using the setting parameter, not necessarily captured pictures preferred by the user can always . 設定パラメータが汎用的であり、かつカメラの機種による性能や機能の違いなどは反映されないので、同じ撮影パラメータ情報を用いて撮影を行ってもカメラなどが違えば撮影した画像は異なったものとなり、出来栄えにバラツキが生じることが予想される。 The setting parameters are generic, and differences in performance and functionality depending on the model of the camera is not reflected, it becomes that different images taken Different and cameras perform photographing by using the same imaging parameter information, workmanship variations that may occur are expected to.

本発明は、かかる点に鑑みてなされたものであり、ユーザがカメラの設定パラメータを調整することなく、好みの画像を容易に撮影することができる電子カメラを提供することを目的とする。 The present invention has been made in view of the foregoing, the user without having to adjust the configuration parameters of the camera, and an object thereof is to provide an electronic camera capable of easily capturing an image of the favorite.

本発明の電子カメラは、撮影手段と、前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段とを備え、前記撮影手段は、前記撮影パラメータ設定手段により作成された撮影パラメータを用いて撮影を行う構成を採る。 The electronic camera of the present invention includes a photographing unit, based on the image data captured, or a feature extraction means for a user to extract feature information of the image from the sample image data designated in advance, extracted feature information by the photographing means, and an imaging parameter setting means for creating the imaging parameters for setting an imaging condition, the imaging means employs a configuration of performing photographing with the imaging parameters created by the photographing parameter setting means.

本発明の電子カメラは、撮影手段と、ネットワーク上のサーバとの間でデータを送受信する通信手段とを備える電子カメラであって、前記サーバは、前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段と、作成した撮影パラメータを前記ネットワーク上に送信する送信手段とを備え、前記通信手段は、前記ネットワーク上に送信された撮影パラメータを受信し、前記撮影手段は、受信した撮影パラメータを用いて撮影を行う構成を採る。 The electronic camera of the present invention includes a photographing unit, an electronic camera and a communication means for transmitting and receiving data to and from the server on the network, wherein the server, the image data taken by the imaging unit, or user feature extracting means for extracting feature information of an image from a pre-specified sample image data, based on the extracted feature information, the photographing parameter setting means for creating the imaging parameters for setting imaging conditions, the imaging parameters created and transmitting means for transmitting on said network, said communication unit receives imaging parameter transmitted over said network, said imaging means employs a configuration of performing photographing with the imaging parameters received.

本発明によれば、カメラの知識を持たない一般のユーザでも、カメラのパラメータを自分で調整することなく、プロの写真家が撮影したような、ユーザが好む画像を容易に撮影することができる。 According to the present invention, in general user having no knowledge of the camera, without adjusting the parameters of the camera themselves, such as professional photographers have taken, the image can be easily captured by the user prefers .

本発明の実施の形態1に係る電子カメラの構成を示すブロック図 Block diagram showing the configuration of an electronic camera according to the first embodiment of the present invention 上記実施の形態1に係る電子カメラの特徴抽出部の特徴情報の抽出処理を示すフロー図 Flow diagram illustrating the process of extracting the feature information of the feature extraction unit of the electronic camera according to the first embodiment 上記実施の形態1に係る電子カメラの切り出し処理の手法の一例を示す図 It illustrates an example of a method of cutting out processing of the electronic camera according to the first embodiment 上記実施の形態1に係る電子カメラの輪郭特徴抽出の一例を示す図 Diagram illustrating an example of the outline feature extraction of an electronic camera according to the first embodiment 上記実施の形態1に係る電子カメラの色彩特徴抽出の一例を示す図 It illustrates an example of a color feature extraction of an electronic camera according to the first embodiment 上記実施の形態1に係る電子カメラの位置情報抽出の一例を示す図 Diagram showing an example of the positional information of the electronic camera extraction according to the first embodiment 上記実施の形態1に係る電子カメラの撮影パラメータ設定部の撮影パラメータ設定処理を示すフロー図 Flow diagram showing a photographing parameter setting process of the photographing parameter setting unit of the electronic camera according to the first embodiment 上記実施の形態1に係る電子カメラの画像撮影部の処理を示すフロー図 Flowchart showing the processing performed by the image capturing unit of the electronic camera according to the first embodiment 上記実施の形態1に係る電子カメラの類似度判定部の処理を示すフロー図 Flow diagram that illustrates the processing of a similarity determination unit of the electronic camera according to the first embodiment 上記実施の形態1に係る電子カメラの画像データの表示例を示す図 Diagram illustrating a display example of image data of an electronic camera according to the first embodiment 本発明の実施の形態2に係る電子カメラの構成を示すブロック図 Block diagram showing the configuration of an electronic camera according to the second embodiment of the present invention 本発明の実施の形態3に係る電子カメラの構成を示すブロック図 Block diagram showing the configuration of an electronic camera according to the third embodiment of the present invention

以下、本発明の実施の形態について図面を参照して詳細に説明する。 It will be described in detail with reference to the drawings, embodiments of the present invention.

(実施の形態1) (Embodiment 1)
図1は、本発明の実施の形態1に係る電子カメラの構成を示すブロック図である。 Figure 1 is a block diagram showing a configuration of an electronic camera according to a first embodiment of the present invention. 本実施の形態の電子カメラは、動画や静止画を記録するデジタルビデオカメラや電子カメラに適用することができる。 The electronic camera of the present embodiment can be applied to a digital video camera or an electronic camera which records a moving image and still images.

図1に示すように、電子カメラ100は、撮像光学系101、イメージセンサ102、信号処理部103、画像撮影部104、外部インターフェース(I/F)105、特徴抽出部106、撮影パラメータ設定部107、データ記憶部108、類似度判定部109、画像選択部110、及び画像表示部111を備える。 As shown in FIG. 1, the electronic camera 100 includes an imaging optical system 101, an image sensor 102, signal processing unit 103, the image capturing unit 104, an external interface (I / F) 105, feature extraction unit 106, capturing parameter setting unit 107 provided, the data storage unit 108, the similarity determination unit 109, the image selection unit 110, and an image display unit 111.

撮像光学系101は、合焦状態調節のために光軸に沿って移動するフォーカスレンズ、被写体の光学的な像を変倍するため光軸に沿って移動するズームレンズといった複数枚のレンズから構成され、被写体像をイメージセンサ102上に結像させる。 The imaging optical system 101, comprised of a plurality of lenses such as a focus lens, a zoom lens which moves along the optical axis for zooming an optical image of an object that moves along the optical axis for focusing conditioning It is, forming a subject image on the image sensor 102.

イメージセンサ102は、撮像光学系101により結像された被写対象を電気信号(映像信号)に変換する。 The image sensor 102 converts the object scene object imaged by the imaging optical system 101 into an electrical signal (video signal). 例えば、イメージセンサ102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等である。 For example, the image sensor 102 is a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) or the like.

信号処理部103は、イメージセンサ102から出力される映像信号に対して、ゲイン調整やノイズ除去、ガンマ補正、アパーチャ処理、ニー処理等の周知の映像信号処理を施し、RGB形式の映像信号に変換する。 The signal processing unit 103, the video signal output from the image sensor 102, gain adjustment, noise removal, gamma correction, aperture processing, subjected to a known image signal processing knee processing or the like, converted into a video signal of the RGB format to. さらに、信号処理部103は、生成したRGB形式の信号を、Y/C形式の映像信号に変換する。 Further, the signal processing unit 103, the generated signal of the RGB format is converted into a video signal of the Y / C format.

画像撮影部104は、撮影した画像データを特徴抽出部106とデータ記憶部108に出力する。 Image capturing unit 104 outputs the captured image data to the feature extraction unit 106 and the data storage unit 108. ユーザは、画像撮影の際には撮影パラメータ設定部107で作成された撮影パラメータを利用して撮影を行う。 The user, when image capturing is performed a shooting using the shooting parameters created by capturing parameter setting unit 107. 撮影パラメータ情報には、各種撮影パラメータ、例えば、露出、シャッター速度、補助光、画角、撮影モード(接写、夜景、花火、セピア、モノクロ等)、ホワイトバランスなどと、画像表示部111にメッセージを示すテキストデータなどが含まれる。 The shooting parameter information, various photographing parameters, for example, exposure, shutter speed, auxiliary light, angle, shooting mode (close-up, night scene, fireworks, sepia, monochrome, etc.), and white balance, a message on the image display unit 111 It is included, such as text data shown.

画像撮影部104は、上記撮影パラメータを撮像光学系101やイメージセンサ102、信号処理部103に反映させて画像の撮影を行う。 Image capturing unit 104 performs capturing of images by reflecting the imaging parameters imaging optical system 101 and image sensor 102, the signal processing unit 103. 画像撮影部104は、連続で複数枚撮影する撮影が可能である。 Image capturing unit 104 may photographing of plural photographed continuously.

画像撮影部104は、メッセージを再生出力する音声・映像再生部104aと、撮影位置の移動やズーム調整などをユーザに指示するためのメッセージを記憶するメモリ104bとをさらに有する。 Image capturing unit 104 further includes a memory 104b for storing a message instructing the audio-video reproduction unit 104a for reproducing and outputting a message, such as pan and zoom adjustment for the photographic position to the user. この場合、上記撮像パラメータ情報には、音声・映像再生部104aで再生可能な音声又は映像データ、及び、メモリ104bに記憶されたメッセージを指示する情報が含まれる。 In this case, the above imaging parameter information, reproducible audio or video data with audio and video reproduction unit 104a, and includes information indicating the message stored in the memory 104b.

外部I/F105は、サンプル画像データを入力する入力ポートである。 External I / F105 is an input port for inputting the sample image data.

特徴抽出部106は、外部I/F105により入力されたサンプル画像データ、又は画像撮影部104によって撮影された画像データを取り込んで特徴情報を抽出する。 Feature extraction unit 106 extracts feature information capture image data captured by the external I / input sample image data by F105, or the image capturing unit 104. 特徴抽出部106は、画像データのExif(Exchangeable Image File Format)部分から撮影時の設定データを抽出した特徴情報と、画像データを分析し輪郭特徴、色彩特徴、配置などの情報を抽出した特徴情報の2つの情報を抽出する。 Feature extraction unit 106, the feature information extracted configuration data at the time of shooting from the Exif (Exchangeable Image File Format) portion of the image data, analyzing the contour feature image data, color characteristics, extracted characteristic information such information as placement extracting the two pieces of information. 画像の特徴としては、撮影内容(風景、人物、マクロ)、撮影状況(日中、夕景、夜景)、構図(近景、遠景、ポートレート、集合、配置)などが含まれる。 The characteristics of the image, capturing content (scenery, people, macro), (during the day, evening, night scene) shooting conditions, composition (foreground, distant view, Portrait, collection, arrangement) and the like. また、特徴抽出部106は、撮像条件(露出、シャッター速度、補助光、画角、撮影モード(モノクロ等)、ホワイトバランス)などの情報を用いる。 The feature extraction unit 106, imaging conditions (exposure, shutter speed, auxiliary light, angle, shooting mode (monochrome, etc.), white balance) using the information such as.

輪郭特徴や色彩特徴の抽出については、例えば特徴量の抽出技術として一般的なエッジ抽出やヒストグラム情報の抽出を用いる。 Extraction of the outline feature and color feature, for example, is used to extract the common edge extraction and histogram information as an extraction technique for feature quantity.

エッジ抽出とは、画像の明るさの変化によりオブジェクトの輪郭を算出する特徴抽出手法である。 Edge extraction and is a feature extraction technique to calculate a contour of an object by a change in brightness of the image. 画像内の明るさが急激に変化する場所がオブジェクトの領域の境界、つまり輪郭となるため、その輪郭を微分演算を利用し算出する。 Since the location where the brightness of the image suddenly changes is the boundary area of ​​an object, i.e. a contour, it is calculated using the differential operation of the outline. 抽出した輪郭情報からは、撮影内容や構図を類推することが可能である。 From the extracted contour information, it is possible to analogize the imaging content and composition. また、ヒストグラム情報の抽出とは、画像の明暗の傾向データ分布を抽出して取得する特徴抽出であり、この情報から作者の撮影状況や意図を類推することが可能である。 Further, the extraction of the histogram information, a feature extraction to obtain extracts trend data distribution of brightness of the image, it is possible to analogize the shooting conditions and intent of the author from this information.

上述した輪郭特徴や色彩特徴の抽出方法は、例示であり、上記以外の抽出方法を採用してもよい。 Extraction method above outline feature and color feature is exemplary and may be employed extraction method other than the above.

撮影パラメータ設定部107は、撮影条件を設定するために使用する各種パラメータの設定各種パラメータの抽出と設定を行う。 Capturing parameter setting unit 107 extracts the Setting various parameters of various parameters used to set the imaging condition. 撮影パラメータ設定部107は、特徴抽出部106からの特徴情報を基に、パラメータの抽出を行う。 Capturing parameter setting unit 107, based on the feature information from the feature extraction unit 106 extracts a parameter. 具体的には、撮影パラメータ設定部107は、特徴抽出部106の情報から抽出した、シャッター速度、絞り値、露出時間、焦点距離、ホワイトバランス、画角のパラメータのうち少なくともいずれか1つからパラメータを設定する。 Specifically, capturing parameter setting unit 107, extracted from the information of the feature extraction unit 106, a shutter speed, aperture value, exposure time, focal length, white balance, at least from any one parameter among the parameters of the angle to set. 撮影パラメータ設定部107は、設定したパラメータを画像撮影部104に設定するとともにデータ記憶部108に記憶する。 Capturing parameter setting unit 107 stores in the data storage unit 108 and sets the parameters set in the image capturing unit 104.

データ記憶部108は、画像撮影部104で撮影した画像データと、撮影パラメータ設定部107で作成されたパラメータ設定値とを記憶する。 Data storage unit 108 stores the image data captured by the image capturing unit 104, and a parameter setting value created by capturing parameter setting unit 107.

類似度判定部109は、特徴抽出部106で抽出したサンプル画像の特徴情報(輪郭特徴、色彩特徴、配置)と画像撮影部104で撮影した画像データの特徴情報(輪郭情報、色彩特徴、配置)から画像の類似度を比較して類似度の判定を行う。 The similarity determination unit 109, the feature information of the extracted sample image feature extraction unit 106 (the contour feature, color feature, disposed) and feature information of the image data photographed by the image photographing unit 104 (contour information, color features, arrangement) by comparing the similarity of the image and determines similarity from. 具体的には、類似度判定部109は、サンプル画像の画像情報と、画像撮影部104により撮影された撮影画像に含まれる各種の特徴情報を比較し、差分の抽出、比較を行い類似度の判定を行う。 Specifically, the similarity determination unit 109, and the image information of the sample image, by comparing the various features information included in the image captured by the image capturing unit 104, extraction of the difference, similarity to compare a determination is made. 例えば、類似度判定部109は、画像撮影部104で撮影された撮影画像に含まれる撮影内容及び構図の情報を取得し、サンプル画像から取得した構図との構図の情報との差分(配置などの差)を抽出し類似度を判定する。 For example, the similarity determination unit 109 acquires the information of the photographing content and composition contained in the image captured by the image capturing unit 104, and composition information of the composition obtained from the sample image difference (such as placement determining a similarity extracting the difference).

なお前述した類似度判定の手法は、類似度を判定する部の例示であり、上記以外の類似度判定方法を採用することもできる。 Incidentally approach similarity determination described above is illustrative of the determining unit similarity, it is also possible to employ a similarity determination method other than the above.

類似度判定部109は、上記撮影データの類似度の判定を行い、画像撮影部104で撮影された画像データにサンプル画像との類似度情報を付加する。 Similarity determination unit 109 performs a determination of the similarity between the imaging data, adds the similarity information of the sample image to the image data photographed by the image photographing unit 104.

画像選択部110は、画像表示部111により表示された画像データを、画面上で選択する。 Image selecting unit 110, the image data displayed by the image display unit 111 is selected on the screen. 選択された画像は、データ記憶部108による保存や削除の対象となる。 Selected image is subject to storage and deletion by data storage unit 108.

画像表示部111は、ディスプレイに類似度判定部で類似度の判定処理をした後の画像データを表示する。 The image display unit 111 displays the image data after the similarity determination process in similarity determination unit on the display. 画像表示部111は、類似度判定部109で付加された類似度の高い順番で表示するようにしてもよい。 The image display unit 111, may be displayed at a higher added degree of similarity in the similarity determination unit 109 sequentially.

以下、上述のように構成された電子カメラ100の動作を説明する。 Hereinafter, the operation of the electronic camera 100 configured as described above.

〔特徴抽出部106の特徴情報抽出の動作〕 Operation of feature information extraction feature extraction unit 106]
図2は、特徴抽出部106の特徴情報の抽出処理を示すフローチャートである。 Figure 2 is a flowchart showing a process of extracting feature information of the feature extraction unit 106.

ステップS1では、特徴抽出部106は、比較対象のサンプル画像となるサンプル画像を読み込む。 In step S1, the feature extraction unit 106 reads the sample image to be compared in the sample image.

ステップS2では、特徴抽出部106は、特徴情報抽出を開始する。 In step S2, the feature extraction unit 106 starts the feature information extraction.

ステップS3では、特徴抽出部106は、読み込んだサンプル画像を分析してヘッダ部分に記載されているExifの情報と画像情報を分析する。 In step S3, the feature extraction unit 106 analyzes the samples read image analyzing Exif information and image information described in the header portion.

ステップS4では、特徴抽出部106は、分析された情報がExif情報であるか否かを判別する。 In step S4, feature extraction unit 106, the information are analyzed to determine whether or not the Exif information.

分析された情報がExif情報である場合は、ステップS5に進み、それ以外は画像情報であるためステップS6に進む。 If the analyzed information is Exif information, the process proceeds to step S5, otherwise the process proceeds to step S6 because it is image information.

ステップS5では、特徴抽出部106は、Exif情報からサンプル画像撮影時の撮影パラメータ(カメラ撮影時に必要とされるシャッター速度、絞り値、露出時間、焦点距離、画角)を抽出して特徴情報を作成する。 In step S5, the feature extraction unit 106, imaging parameters at the time of sample image taken from Exif information (shutter speed is required when the camera photographing, the aperture value, exposure time, focal length, angle of view) feature information by extracting create.

ステップS6では、特徴抽出部106は、読み込んだサンプル画像において特徴となる部分の部分画像の切り出し処理を行い、ステップS7乃至ステップS9に進む。 In step S6, the feature extraction unit 106 performs clipping processing portion of the partial image as a feature in the loaded sample image, the process proceeds to step S7 to step S9. 切り出し処理の手法については、図3により後述する。 The method of the clipping processing will be described later by referring to FIG.

ステップS7では、特徴抽出部106は、切り出した部分画像の輪郭情報を抽出する。 In step S7, the feature extraction unit 106 extracts the contour information of the clipped partial images.

ステップS8では、特徴抽出部106は、切り出した部分画像の色彩特徴を抽出する。 In step S8, the feature extraction unit 106 extracts the color feature of the clipped partial images.

ステップS9では、特徴抽出部106は、切り出した部分画像の配置情報を抽出する。 In step S9, the feature extraction unit 106 extracts location information of the clipped partial images.

ステップS10では、特徴抽出部106は、ステップS7乃至ステップS9で処理された情報を一つの情報にまとめる。 In step S10, the feature extraction unit 106 summarizes the information processed in step S7 to the step S9 to one information.

ステップS11では、特徴抽出部106は、抽出された画像情報から特徴情報を作成する。 In step S11, the feature extraction unit 106 generates the feature information from the extracted image information.

このステップS11では、切り出し部分単独の特徴情報の作成を行う。 In the step S11, and creates the characteristic information of the cut-out portion alone. なお後述するステップS14では、サンプル画像全体の特徴情報を作成する。 Note that in step S14 described below, to create the characteristic information of the entire sample image.

ステップS12では、特徴抽出部106は、画像データに特徴情報として切り出された情報が他にないか否かを判別する。 In step S12, the feature extraction unit 106, the information extracted as feature information to the image data to determine whether no other. 他に切り出された情報がある場合は、ステップS6に戻り、他に切り出された情報がない場合は、ステップS13に進む。 If there is information which is cut out in the other, the process returns to step S6, if no information cut out in the other, the process proceeds to step S13.

ステップS13では、特徴抽出部106は、ステップS5でExif情報から作成された特徴情報とステップS12で作成された画像情報から作成された特徴情報を一つの情報としてまとめる。 In step S13, the feature extraction unit 106, it summarizes the characteristics information created from the image information created by the feature information and the step S12 that are created from the Exif information in step S5 as a single information.

ステップS14では、特徴抽出部106は、撮影パラメータ設定部107と類似度判定部109で使用する特徴情報を作成して本フローを終了する。 In step S14, the feature extraction unit 106 creates the characteristic information used by the capturing parameter setting unit 107 similarity determination unit 109 ends this flow. 具体的には、特徴抽出部106は、ステップS14では、ステップS5で作成したExif情報から抽出した特徴情報と、ステップS12で作成した画像情報から抽出した特徴情報を一つにまとめた情報(ステップS13参照)から特徴情報を作成する。 Specifically, the feature extraction unit 106, in step S14, the feature information extracted from the Exif information created in step S5, the information (steps summarized in one feature information extracted from the image information created in step S12 to create a feature information from the S13 reference).

上記フローにより、サンプル画像の特徴情報が抽出され、撮影パラメータ設定部107と類似度判定部109で使用する特徴情報を作成される。 By the above flow, the characteristic information of the sample images is extracted and creates the characteristic information used by the capturing parameter setting unit 107 similarity determination unit 109.

図3は、切り出し処理の手法の一例を示す図である。 Figure 3 is a diagram showing an example of a method of clipping processing. 上記ステップS6の切り出し処理に対応する。 Corresponding to the cutout process of step S6.

図3(a)に示すように、特徴抽出部106は、取り込んだサンプル画像150を一旦、画像表示部111に表示する。 As shown in FIG. 3 (a), the feature extraction unit 106, once the sample image 150 captured, displayed on the image display unit 111. 図3(b)に示すように、ユーザは、画像表示部111に表示された画像150に対して、特徴部分として指定したい部分について画面上で選択をする。 As shown in FIG. 3 (b), the user to the image 150 displayed on the image display unit 111, the selection on the screen for the part to be designated as a characteristic portion.

図3では、タッチパネルに表示した画像の特徴部分を切り出す手法としてタッチペンで特徴部分の選択をする例を示す。 In Figure 3, shows an example of the selection of the characteristic portion in the touch pen as a method for cutting a characteristic portion of the display image on the touch panel. 選択の手法としては、ユーザが、表示された画像上で特徴部分としたい箇所の範囲を矩形で指定する選択の手法がある。 As a method of selection, the user, there is a selection technique that specifies the range of portions to be a characteristic part on the displayed image in the rectangle. また指定の方法としては、ユーザが、特徴部分を含む範囲で矩形の左上部分と右下部分をタッチペンで指定する指定の方法がある。 As specified method, the user is specified way to specify the upper left portion and the lower right portion of the rectangle with the touch pen in a range including the feature portion. この指定の方法では、ユーザにより、タッチペンで指定した点を含む矩形の選択範囲が決定され、その範囲が切り出し部分となる。 In this specification method, the user is rectangular selection is determined including a point specified by the touch pen, the portions that range cut. 図3(c)に示すように、特徴部分として指定したい部分が複数ある場合には、同様の選択操作を別の特徴部分に対して行う。 As shown in FIG. 3 (c), when there are a plurality of portions to be specified as a feature portion, the same selecting operation to another characteristic portion. なお、タッチペンを用いた選択以外の選択方法を採用することもできる。 It is also possible to adopt a selection method other than selection using touch pen.

図4は、輪郭特徴抽出の一例を示す図である。 Figure 4 is a diagram showing an example of the outline feature extraction. 上記ステップS7の輪郭情報抽出処理に対応する。 Corresponding to the contour information extraction process in step S7.

エッジ抽出方法により画像の輪郭情報を抽出する例である。 It is an example of extracting contour information of an image by the edge extraction method.

図4(a)は、上記切り出し処理により切り出された画像a,b,c,dを示す。 4 (a) shows the image a cut out by the cutout process, b, c, d.

図4(b)に示すように、画像aの場合は、エッジ部分が輪郭情報として抽出される。 As shown in FIG. 4 (b), in the case of the image a, the edge portions are extracted as the contour information.

図4(c)に示すように、画像cの場合は、色分け部分が輪郭情報として抽出される。 As shown in FIG. 4 (c), in the case of image c, colored portion is extracted as the contour information.

図5は、色彩特徴抽出の一例を示す図である。 Figure 5 is a diagram showing an example of a color feature extraction. 上記ステップS8の色彩特徴抽出処理に対応する。 Corresponding to the color feature extraction process in step S8.

切出した部分画像のヒストグラム情報の抽出の結果から色分布を求め、色彩特徴を抽出する例である。 Calculated color distribution from the results of extraction of the histogram information of clipped partial images, is an example of extracting color features.

図5(a)は、上記切り出し処理により切り出された画像a,b,c,dを示す。 Figure 5 (a) shows the image a cut out by the cutout process, b, c, d.

図5(b)に示すように、画像aの色彩情報のヒストグラム情報を抽出する。 As shown in FIG. 5 (b), it extracts the histogram information of color information of the image a.

図5(c)に示すように、画像cの色彩情報のヒストグラム情報を抽出する。 As shown in FIG. 5 (c), extracting the histogram information of color information of the image c.

ヒストグラム情報抽出の際には画像そのままの色を処理する場合には処理に時間がかかる、また類似度判定部109での類似度比較の際の比較に時間がかかる可能性がある。 During histogram information extraction takes time to process when processing an image as color, also it can be time consuming to compare the time of the similarity comparison in similarity determination unit 109. このため、ある程度減色処理をしてヒストグラム情報の抽出を行うことも含む。 Therefore, also it includes the extraction of the histogram information to a certain color reduction process.

図6は、位置情報抽出の一例を示す図である。 Figure 6 is a diagram showing an example of the positional information extraction. 上記ステップS9の配置情報抽出処理に対応する。 Corresponding to the arrangement information extracting process in step S9.

図6(a)は、上記切り出し処理により切り出された画像a,b,c,dを示す。 6 (a) shows the image a cut out by the cutout process, b, c, d.

図6(b)に示すように、画像aの配置情報を抽出する。 As shown in FIG. 6 (b), it extracts the arrangement information of the image a. 配置情報は、画面上での部分画像の中心座標を抽出して記憶する。 Arrangement information, extracts and stores the center coordinates of a partial image on the screen. 中心座標は、部分画像に外接する枠の中心点の座標(A,B)又は部分画像に外接する枠の中心点の座標として得ることができる。 Center coordinate can be obtained as the coordinates of the center point of the frame circumscribing the coordinates of the center point of the frame that circumscribes the partial image (A, B) or to the partial image.

〔撮影パラメータ設定部107の動作〕 Operation of the photographing parameter setting unit 107]
図7は、撮影パラメータ設定部107の撮影パラメータ設定処理を示すフローチャートである。 Figure 7 is a flow chart showing a photographing parameter setting process of the photographing parameter setting unit 107.

ステップS21では、撮影パラメータ設定部107は、特徴抽出部106から抽出した特徴情報を読み込む。 In step S21, capturing parameter setting unit 107 reads the feature information extracted from the feature extraction unit 106.

ステップS22では、撮影パラメータ設定部107は、撮影パラメータの作成を開始する。 In step S22, capturing parameter setting unit 107 starts the creation of the imaging parameters.

ステップS23では、撮影パラメータ設定部107は、ステップS21で読み込んだ特徴情報を分析して、Exifから抽出した特徴情報と画像情報から抽出した特徴情報とに分割する。 In step S23, capturing parameter setting unit 107 may analyze the characteristic information read in step S21, it is divided into the feature information extracted from the feature information and the image information extracted from the Exif.

ステップS24では、分割されたデータのうちExif情報からの特徴情報のみか否かを判別する。 In step S24, it is determined whether or not only the characteristic information from the Exif information of the divided data. Exif情報からの特徴情報のみの場合は、ステップS25に進み、Exif情報からの特徴情報のみでない場合は、ステップS26に進む。 For only the feature information from the Exif information, the process proceeds to step S25, if not only the characteristic information from the Exif information, the process proceeds to step S26. 上記ステップS24でExifからの特徴情報のみでない場合には、Exif情報からの特徴情報と画像情報から抽出した特徴情報両方あわせた特徴情報がある。 If not only the characteristic information from the Exif above step S24, there is feature information together both feature information extracted from the feature information and the image information from the Exif information.

ステップS25では、撮影パラメータ設定部107は、Exif情報からの特徴情報を基に、撮影時に必要なシャッター速度、絞り値、露出時間、焦点距離、画角などの撮影パラメータを抽出して、一旦、仮撮影パラメータを作成する。 In step S25, capturing parameter setting unit 107, based on the feature information from the Exif information, shutter speed required at the time of photographing, the aperture value, exposure time, focal length, and extracts the photographing parameters such as angle of view, once, to create a provisional shooting parameters.

ステップS26では、撮影パラメータ設定部107は、Exif情報からの特徴情報と画像情報からの特徴情報を基に、パラメータを補正するパラメータ補正値を作成する。 In step S26, capturing parameter setting unit 107, based on the feature information from the feature information and the image information from the Exif information, create a parameter correction value for correcting the parameters. 例えば、撮影パラメータ設定部107は、画像情報からの特徴情報(色彩情報、配置情報)とExifの特徴情報から読み取った撮影時のカメラの機種情報などを基に、複数の補正値を算出して実際の撮影の際にベストとなるパラメータ補正値を作成する。 For example, capturing parameter setting unit 107, characteristic information (color information, arrangement information) from the image information, such on the basis of the Exif type information of camera during photographing read from feature information, and calculates a plurality of correction values to create a parameter correction value, which is the best at the time of the actual shooting. 撮影パラメータ設定部107は、撮影パラメータが一般撮像機器又はユーザの撮像機器の処理限界を大きく逸脱しないようなパラメータ補正値を作成する。 Capturing parameter setting unit 107, imaging parameters to create a parameter correction value such that it does not greatly deviate the processing limitations of general imaging devices or user imaging equipment.

補正値の作成については、各メーカのカメラの機種や天候等に補正するパラメータの値を補正パラメータTableとしてもち、その補正パラメータTableを用いて補正値を算出するという手法を用いてもよい。 The creation of the correction value, has a value of parameter for correcting the model and weather and the like of each manufacturer camera as correction parameters Table, it may be used a method of calculating a correction value using the correction parameters Table. 複数の画像を撮影する際には、算出した複数の補正値をベストのものから順番に割り当てて撮影毎に撮影パラメータを変えて設定する。 When taking a plurality of images is set by changing the imaging parameters for each imaging assigned sequentially a plurality of correction values ​​calculated from the best ones.

撮影パラメータ設定部107は、撮影パラメータが一般撮像機器又はユーザの撮像機器の処理限界を大きく逸脱しないようなパラメータ補正値を作成する。 Capturing parameter setting unit 107, imaging parameters to create a parameter correction value such that it does not greatly deviate the processing limitations of general imaging devices or user imaging equipment.

ステップS27では、撮影パラメータ設定部107は、ステップS25で作成した仮撮影パラメータとS26で作成した補正値とを一つの情報としてまとめる。 In step S27, capturing parameter setting unit 107 summarizes the correction value created in the temporary photographing parameters and S26 created in step S25 as one of the information.

ステップS28では、撮影パラメータ設定部107は、撮影パラメータを作成する。 In step S28, capturing parameter setting unit 107 generates a shooting parameters.

ステップS29では、撮影パラメータ設定部107は、撮影が複数の画像撮影モードとなっているか否かを判別する。 In step S29, capturing parameter setting unit 107 determines whether photography is a plurality of image capturing modes.

撮影が複数の画像撮影モードとなっている場合には、撮影する枚数分の補正値を作成するためにステップS26に戻る。 If the shooting is a plurality of image capturing mode, the process returns to step S26 in order to generate a correction value of the number of sheets to be photographed. 撮影が複数の画像撮影モードとなっていない場合は、本撮影パラメータ設定処理を終了する。 If photographing is not the plurality of image capturing modes, and ends the shooting parameter setting processing.

上記フローにより、画像撮影部104で使用する撮影パラメータ情報が作成される。 The above flow, imaging parameter information used by the image capturing section 104 is created.

〔画像撮影部104の動作〕 Operation of the image capturing section 104]
図8は、画像撮影部104の処理を示すフローチャートである。 Figure 8 is a flowchart showing the processing of the image capturing unit 104.

ステップS31では、画像撮影部104は、撮影パラメータ設定部107から抽出した撮影パラメータを読み込む。 In step S31, the image capturing unit 104 reads the imaging parameters extracted from the imaging parameter setting unit 107.

ステップS32では、画像撮影部104は、画像撮影処理の設定を開始する。 In step S32, the image capturing unit 104 starts setting of the image capturing processing.

ステップS33では、画像撮影部104は、読み込んだ撮影パラメータが複数の画像撮影用か否かを判別する。 In step S33, the image capturing unit 104, the read imaging parameter to determine whether a plurality of imaging. 撮影パラメータが複数の画像撮影用でない場合は、一つの撮影パラメータを設定するステップS34に進む。 If imaging parameter is not used for a plurality of image capturing, the process proceeds to step S34 to set a single shooting parameters. 撮影パラメータが複数の画像撮影用である場合は、ステップS35に進む。 If imaging parameter is for a plurality of image capturing, the process proceeds to step S35.

ステップS34では、画像撮影部104は、一つの撮影パラメータを撮影時の撮影パラメータ(撮影時に必要なシャッター速度、絞り値、露出時間、焦点距離、画角など)として設定する。 In step S34, the image capturing unit 104 sets one of the photographing parameters imaging parameters at the time of shooting (required for imaging shutter speed, aperture value, exposure time, focal length, etc. angle) as.

ステップS35では、画像撮影部104は、複数の撮影パラメータをすべて一旦保持する。 In step S35, the image capturing unit 104, temporarily holds all the plurality of photographing parameters.

ステップS36では、画像撮影部104は、ステップS35で保持された撮影パラメータのうち一つを選択して撮影時の撮影パラメータとして設定する。 At step S36, the image capturing unit 104 sets a photographing parameter at the time of shooting by selecting one of the imaging parameter held in step S35. 複数の画像撮影の際には次の撮影時には、一度設定した撮影パラメータ以外の撮影パラメータを、ステップS35で保持した値から選択して設定する。 The time of a plurality of images photographed at the time of the next shooting, the shooting parameters other than the photographing parameter once set, selected and set from the value held at step S35.

ステップS37では、画像撮影部104は、撮影パラメータを設定して撮影をする準備を完了する。 At step S37, the image capturing unit 104 completes the preparation for photographing is set imaging parameters.

ステップS38では、画像撮影部104は、撮影ボタン押下等の撮影開始指示により実際に画像撮影を開始する。 At step S38, the image capturing unit 104 starts actual image photographed by the photographing start instruction such as pressing the photographing button. 複数画像撮影の際には、撮影開始指示が一旦出されると、必要枚数分撮影するまで撮影を続ける。 During multiple imaging, the imaging start instruction is once issued continues shooting until shoot required number minute.

ステップS39では、画像撮影部104は、撮影が複数の画像撮影モードとなっているか否かを判別する。 In step S39, the image capturing section 104 determines whether or not shooting has become a plurality of image capturing modes.

撮影が複数の画像撮影モードとなっている場合には、必要枚数が撮影されるまでステップS36に戻る。 If the shooting is a plurality of image capturing mode, the process returns to step S36 until the required number is taken. 撮影が複数の画像撮影モードとなっていない場合は、本画像撮影処理を終了する。 If photographing is not the plurality of image capturing modes, and ends the imaging processing.

上記フローにより、特徴抽出部106とデータ記憶部108、類似度判定部109で使用する画像の撮影が行われる。 The above flow, feature extraction unit 106 and the data storage unit 108, captured images are made to be used in the similarity determination unit 109.

〔類似度判定部109の動作〕 Operation of the similarity determination unit 109]
図9は、類似度判定部109の処理を示すフローチャートである。 Figure 9 is a flowchart showing the processing of the similarity determination unit 109.

ステップS41では、類似度判定部109は、特徴抽出部106から出力されるサンプル画像と画像撮影部104により撮影された画像の特徴情報とデータ記憶部108に保存された画像撮影部104で撮影された画像データとを読み込む。 In step S41, the similarity determination unit 109, taken at sample image and the image capturing unit 104 image capturing unit 104 stored in the feature information and the data storage unit 108 of the image taken by the output from the feature extractor 106 It reads the image data.

ステップS42では、類似度判定部109は、サンプル画像の特徴情報と画像撮影部104で撮影された画像の特徴情報を特徴抽出部106で抽出した配置情報毎に整理する。 In step S42, the similarity determination unit 109, to organize the feature information of the image captured by the characteristic information of the sample image and the image capturing section 104 for each arrangement information extracted by the feature extraction unit 106. 例えば、類似度判定部109は、配置情報から切り分け部分毎にデータを整理する。 For example, the similarity determination unit 109, to organize data for each partial cut from the placement information.

ステップS43では、類似度判定部109は、配置情報毎にサンプル画像と撮影画像の特徴情報を抜き出す。 At step S43, the similarity determination unit 109, extracting feature information of the sample image and the captured image for each configuration information. 例えば、類似度判定部109は、撮影データと比較データで同じ切り分け部分の情報を抽出する。 For example, the similarity determination unit 109 extracts information of the same cut part comparison data and the imaging data.

ステップS44では、類似度判定部109は、輪郭部分のベクトル情報の比較を行う。 At step S44, the similarity determination unit 109, and compares vector information contoured portion.

ステップS45では、類似度判定部109は、色彩特徴を比較して、類似度情報を作成する。 In step S45, the similarity determination unit 109 compares the color characteristics, to create a similarity information.

ステップS46では、類似度判定部109は、作成した類似度情報を保持する。 In step S46, the similarity determination unit 109 holds the similarity information created.

ステップS47では、類似度判定部109は、配置情報毎の比較データ(切り出し部分の比較データ)をすべて比較したか否かを判別する。 At step S47, the similarity determination unit 109 determines whether or not comparison of all the comparison data for each location information (comparison data of the cutout portion). 類似度判定部109は、配置情報毎の比較データがある場合は、上記ステップS43に戻り比較データがなくなるまで類似度の比較を行う。 The similarity determination unit 109, if there is a comparison data for each arrangement information, to compare the similarity to the comparison data returns to step S43 is eliminated.

配置情報毎の比較データがない場合は、ステップS48で、類似度判定部109は、類似度の算出を行う。 If there is no comparison data for each arrangement information is in step S48, the similarity determination unit 109, to calculate the similarity. 類似度の算出により、本フローは終了する。 The similarity calculation, the flow ends.

上記フローにより、画像選択部110及び画像表示部111で使用する類似度情報の作成と撮影画像の出力が行われる。 The above flow, the output of the creation and the photographed image of the similarity information for use by the image selection unit 110 and the image display unit 111 is performed.

〔画像選択部110及び画像表示部111の動作〕 Operation of the image selecting unit 110 and the image display unit 111]
図10は、画像選択部110及び画像表示部111で処理された画像データの表示例を示す図であり、図10(a)は比較画像と撮影された画像データの表示例、図10(b)は選択した画像表示例を示す。 Figure 10 is a diagram showing a display example of image data processed by the image selecting section 110 and the image display unit 111, FIG. 10 (a) display example of image data captured and the comparative image, FIG. 10 (b ) shows an image display example of selection.

図10(a)に示すように、画像表示部111は、比較画像と、撮影された画像のサムネイル画像とをディスプレイに表示する。 As shown in FIG. 10 (a), the image display unit 111 displays the comparison image, and a thumbnail image of the captured image on the display. このサムネイル画像には、類似度に関する情報(ここではNo)が付加される。 This thumbnail image, information about the degree of similarity (here No) is added. すなわち、画像表示部111は、比較画像と共に、撮影された画像のサムネイル画像に、撮影した中での類似度の高さがわかるように類似度を示す番号をつけて表示する。 That is, the image display unit 111, together with the comparison image, the thumbnail image of the captured image, and displays with a number indicating the degree of similarity as high similarity is found in in taken. また、画像表示部111は、図10(a)に示すように、撮影画像にチェックボックスを設けて画像データの処理の選択を可能する。 The image display unit 111, as shown in FIG. 10 (a), allows the selection of the processing of the image data by providing a check box in the captured image.

図10(b)は、画像選択部110により選択された画像を拡大した場合を示している。 FIG. 10 (b) shows a case where an enlarged image selected by the image selection unit 110. 画像選択部110は、図10(a)で表示されているサムネイル画像のうち、ユーザが確認したいサムネイル画像の画面上を触ることにより画像を選択する。 Image selector 110, among the thumbnail images displayed in FIG. 10 (a), selects an image by touching the screen of the thumbnail image the user wants to check. さらに、画像選択部110は、ユーザが触れる(サムネイル画像を二回触れる)ことで、画像拡大やデータ削除等の画像の処理を実現する。 Further, the image selector 110, (touching twice thumbnail images) the user touches it by, realizing the processing of the image enlargement or data deletion of images.

以上は画像選択部110及び画像表示部111で処理される一例であり、上記以外の画像表示及び選択を採用してもよい。 Above is an example to be processed by the image selecting section 110 and the image display unit 111 may employ an image display and selection other than the above.

以上詳細に説明したように、本実施の形態によれば、電子カメラ100は、ユーザが予め指定したサンプル画像データ、又は画像撮影部104によって撮影された画像データ(ユーザの好みが反映されているとする)を取り込んで特徴情報を抽出する。 As described above in detail, according to this embodiment, the electronic camera 100, sample image data designated by the user in advance, or preferences of the photographed image data (the user by the image capturing unit 104 is reflected It captures to) for extracting feature information. 特徴抽出部106は、画像データのExif部分から撮影時の設定データを抽出した特徴情報と、画像データを分析し輪郭特徴、色彩特徴、配置などの情報を抽出した特徴情報の2つの情報を抽出する。 Feature extraction unit 106 extracts the feature information extracted configuration data at the time of shooting from the Exif portion of the image data, analyzing the contour feature image data, color characteristics, two information extracted feature information information such as arrangement to. 撮影パラメータ設定部107は、特徴抽出部106により抽出された特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する。 Capturing parameter setting unit 107, based on the feature information extracted by the feature extraction unit 106, to create a photographing parameters for setting shooting conditions. 画像撮影部104は、撮影パラメータ設定部107により作成された撮影パラメータを用いて撮影を行う。 Image capturing unit 104 performs imaging using imaging parameters created by capturing parameter setting unit 107. これにより、ユーザが予め選択した好みの画像データから撮影に関するパラメータを設定することができ、かつ、撮影された画像のうち類似する画像データのみを取得することが可能になる。 Thus, the user can set the parameters on imaging from the image data preselected preferences, and makes it possible to obtain only the image data to be similar among the captured image. したがって、専門的な知識や高度な撮影技術を持つことなく、ユーザの趣向に合う満足度の高い写真撮影をすることができる。 Therefore, without having specialized knowledge and advanced imaging techniques, it is possible to highly photographed satisfaction that meet preferences of a user.

例えば、好みのデジタル画像から特徴情報を抽出し、その特徴情報から同様の画像を撮影可能な撮影パラメータを、カメラの機種やユーザの好みに合わせて自動生成することができる。 For example, extracts feature information from the preference of the digital image, the imaging parameters can image the same image from the characteristic information can be automatically generated in accordance with the preference of the camera model and the user. 生成された撮影パラメータを電子カメラに反映させることができるので、容易に好みの写真(ベストショット)を撮影することができる。 Since the generated imaging parameters can be reflected in the electronic camera, it is possible to easily take a picture of preference (best shot). カメラの知識を持たない一般のユーザでも、カメラのパラメータを自分で調整することなく、プロの写真家が撮影したような、撮影者が好む画像を容易に撮影することができる。 In general users who do not have the knowledge of the camera, without adjusting the parameters of the camera on your own, such as professional photographers have taken, the image that the photographer prefer it can be easily taken.

(実施の形態2) (Embodiment 2)
図11は、本発明の実施の形態2に係る電子カメラの構成を示すブロック図である。 Figure 11 is a block diagram showing a configuration of an electronic camera according to the second embodiment of the present invention. 本実施の形態の説明に当たり、図11において、図1と同一構成部分には図1と同一番号を付して重複箇所の説明を省略する。 In the description of this embodiment, in FIG. 11, a description of the repeated parts are given the same numbers as in FIG. 1, the same components as in FIG. 1.

図11に示すように、電子カメラ200は、図1の電子カメラ100にさらに計時部201を備える。 As shown in FIG. 11, the electronic camera 200 further includes a timer unit 201 to the electronic camera 100 of FIG.

計時部201は、現在の時刻情報を生成し出力する。 Timing unit 201 generates a current time information output.

画像撮影部104は、実施の形態1に記載した動作に加えて、撮影した画像データをデータ記憶部108に記憶する際に、撮影画像データに関連付けて撮影に使用した撮影パラメータをデータ記憶部108に記憶する。 Image capturing unit 104, in addition to the operation described in the first embodiment, when storing the captured image data to the data storage unit 108, data imaging parameters used for imaging in association with captured image data storage unit 108 and stores it in. さらに、画像撮影部104は、特徴抽出部106により抽出された撮影画像の特徴情報を、撮影画像データに関連付けてデータ記憶部108に記憶する。 Furthermore, the image capturing unit 104, the feature information of the captured image extracted by the feature extraction unit 106, and stores in the data storage unit 108 in association with captured image data.

撮影パラメータ設定部107は、実施の形態1に記載した動作に加えて、画像撮影部104に撮影パラメータを設定する際に下記の動作を行う。 Capturing parameter setting unit 107 in addition to the operation described in Embodiment 1, it performs the following operation when setting the imaging parameters to the image capturing unit 104. すなわち、撮影パラメータ設定部107は、撮影パラメータに関連付けて撮影回数情報を加算し、さらに撮影パラメータに関連付けて記憶する撮影時刻情報について、計時部201から得られる現在の時刻情報により更新する。 That is, capturing parameter setting unit 107 in association with the imaging parameters by adding the number of shots information about shooting time information stored in association with the further imaging parameters, and updates the current time information obtained from the clock unit 201.

電子カメラ200は、実施の形態1に記載した動作に加えて以下の動作を行う。 The electronic camera 200 performs the following operations in addition to operations described in the first embodiment.

撮影パラメータ設定部107は、データ記憶部108に記憶している撮影パラメータに関連付けられた撮影回数情報や撮影時刻情報を基に、データ記憶部108に記憶している撮影パラメータの一つを選択して画像撮影部104に設定する。 Capturing parameter setting unit 107, based on the shooting count information and photographing time information associated with the imaging parameters stored in the data storage unit 108, selects one of the photographing parameters stored in the data storage unit 108 setting the image capturing unit 104 Te. 画像撮影部104は、撮影パラメータ設定部107により設定された撮影パラメータで撮影する。 Image capturing unit 104 captures the shooting parameters set by the capturing parameter setting unit 107.

例えば、撮影パラメータ設定部107は、撮影回数情報を基に最も撮影回数の多い撮影パラメータを選択する撮影パラメータの選択動作を行う。 For example, capturing parameter setting unit 107 performs selection operation of the imaging parameters to select more imaging parameter most number of shots based on shooting count information. また、撮影パラメータ設定部107は、撮影時刻情報を基に最近撮影した撮影パラメータを選択する。 The imaging parameter setting unit 107 selects the imaging parameters taken recently based on photographing time information. また、撮影パラメータ設定部107は、撮影回数情報と撮影時刻情報と計時部201から得られる現在の時刻情報を基に現在の時間帯で最も撮影回数の多い撮影パラメータを選択する。 The imaging parameter setting unit 107 selects a large imaging parameter most number of shots based on the current time information with the current time zone obtained from the number of shots Information photographing time information and the time measuring unit 201.

このように、本実施の形態では、データ記憶部108に記憶している撮影パラメータの一つを選択して撮影に使用することにより、撮影パラメータを、特徴情報を基にその都度作成して用いることなく、ユーザの好みに近い設定の撮影パラメータで撮影することができる。 Thus, in the present embodiment, by using the shooting by selecting one of the imaging parameters stored in the data storage unit 108, the photographing parameters, used to create each time based on feature information without, can be photographed by the photographing parameter settings near the user's preference.

また、過去に撮影した画像をサンプル画像として使用するようにすれば、特徴情報の抽出処理及び撮影パラメータの作成処理を省略することができ、より効率的な撮影処理を実行することができる。 Further, if to use the image captured in the past as a sample image, it is possible to omit the process of creating the extraction process and the camera parameters of the feature information, it is possible to perform more efficient imaging process.

(実施の形態3) (Embodiment 3)
図12は、本発明の実施の形態3に係る電子カメラの構成を示すブロック図である。 Figure 12 is a block diagram showing a configuration of an electronic camera according to the third embodiment of the present invention. 本実施の形態の説明に当たり、図12において、図1と同一構成部分には図1と同一番号を付して重複箇所の説明を省略する。 In the description of this embodiment, in FIG. 12, a description of the repeated parts are given the same numbers as in FIG. 1, the same components as in FIG. 1.

図12に示すように、電子カメラシステムは、電子カメラ300と、サーバ400と、電子カメラ300とサーバ400とを繋ぐネットワーク500とから構成される。 As shown in FIG. 12, the electronic camera system is comprised of a digital camera 300, a server 400, the electronic camera 300 and the server 400 and the connecting network 500..

電子カメラ300は、図1の電子カメラ100から外部I/F105、特徴抽出部106、撮影パラメータ設定部107、及びデータ記憶部108を取り去り、送受信部301及びインターフェース302を設ける。 Electronic camera 300, external I / F105 from the electronic camera 100 in FIG. 1, feature extraction unit 106, deprived of capturing parameter setting unit 107 and a data storage unit 108, is provided with a transmitting and receiving unit 301 and the interface 302.

サーバ400は、図1の電子カメラ100側が備える外部I/F105、特徴抽出部106、撮影パラメータ設定部107、及びデータ記憶部108と同様の機能を有する外部I/F405、特徴抽出部406、撮影パラメータ設定部407、及びデータ記憶部408を備える。 Server 400, an external I / F105 comprises an electronic camera 100 side of FIG. 1, feature extraction unit 106, capturing parameter setting unit 107, and an external I / F 405 having the same functions as the data storage unit 108, the feature extraction unit 406, imaging It includes a parameter setting unit 407 and a data storage unit 408. また、サーバ400は、ネットワーク500を介して電子カメラ300側とデータを送受信するための送受信部401及びI/F402を備える。 The server 400 includes a transceiver 401 and I / F402 for sending and receiving electronic camera 300 side and data over the network 500.

ネットワーク500は、移動体通信網、公衆電話網、LANやインターネットなどから構成するネットワークであり、有線系又は無線系などネットワークの種類とプロトコルの種類は特に問わない。 Network 500, a mobile communication network, public telephone network, a network which consists of a LAN or the Internet, type and protocol type wired systems or wireless systems such as a network is not particularly limited.

送受信部301,401は、I/F302,402及びネットワーク500を介して、画像撮影部104で撮影された画像データ、画像データを加工しデータ記憶部408に記憶した画像データ又は撮影バラメータ設定部407で作成された撮影パラメータを送受信する。 Transceiver 301 and 401 via the I / F302,402 and the network 500, captured image data by the image capturing unit 104, the image data or captured to store the image data processed in the data storage unit 408 Barameta setting unit 407 send and receive imaging parameters that have been created in.

送受信部301は、内部に小容量のデータ記憶領域を持つ。 Transceiver 301 has a data storage area of ​​the small volume inside. このデータ記憶領域は、送受信部301の外部に設けてもよい。 The data storage area may be provided outside the receiving portion 301.

データ記憶部408は、図1の電子カメラ100のデータ記憶部108の動作に加えて、記憶された画像データを加工し、再度記憶する機能を有する。 Data storage unit 408, in addition to the operation of the data storage unit 108 of the electronic camera 100 in FIG. 1, to process the stored image data, has a function of storing again.

電子カメラ300は、実施の形態1に記載した動作に加えて以下の動作を行う。 The electronic camera 300 performs the following operations in addition to operations described in the first embodiment.

サーバ400は、撮影パラメータ設定部407により作成した撮影パラメータを、送受信部401、I/F402及びネットワーク500を経由して電子カメラ300に送信する。 Server 400, the imaging parameters created by the imaging parameter setting unit 407, and transmits to the electronic camera 300 via the transmitting and receiving unit 401, I / F402 and the network 500.

電子カメラ300は、サーバ400から送信された撮影パラメータを、送受信部301により受信する。 The electronic camera 300, the imaging parameters transmitted from the server 400, is received by transceiver 301. 電子カメラ300は、受信した撮影パラメータを画像撮影部104に設定する。 The electronic camera 300 sets the imaging parameters received in the image capturing unit 104.

一方、電子カメラ300は、画像撮影部104により撮影した画像データを、送受信部301内のデータ記憶領域に一旦記憶し、適当なタイミングでI/F302及びネットワーク500を経由してサーバ400に送信する。 On the other hand, the electronic camera 300 transmits image data captured by the image capturing unit 104, temporarily stored in the data storage area in the transmission and reception unit 301 via the I / F302 and the network 500 at a proper timing to the server 400 .

サーバ400は、電子カメラ300から送信された画像データを、送受信部401により受信し、データ記憶部408に記憶する。 Server 400, the image data transmitted from the electronic camera 300, received by the transceiver unit 401, and stores in the data storage unit 408. サーバ400は、データ記憶部408に記憶された画像データを、サムネイルに加工し、再度データ記憶部408に記憶する。 Server 400, the image data stored in the data storage unit 408, and processed in the thumbnail, stored in the data storage unit 408 again.

サーバ400は、加工した画像データを、送受信部401、I/F402及びネットワーク500を経由して電子カメラ300に送信する。 Server 400, the processed image data is transmitted to the electronic camera 300 via the transmitting and receiving unit 401, I / F402 and the network 500.

電子カメラ300は、サーバ400から送信された画像データを受信し、送受信部301内のデータ記憶領域に記憶する。 The electronic camera 300 receives the image data transmitted from the server 400 and stored in the data storage area in the transmitting and receiving unit 301. 送受信部301内のデータ記憶領域に記憶されたデータは、画像表示部111に表示される。 Data stored in the data storage area in the transmission and reception unit 301 is displayed on the image display unit 111. ユーザは、画像表示部111に表示されたサムネイルを確認し、実施の形態1で述べた手順により取得したい画像を任意に選択することができる。 The user confirms the thumbnail displayed on the image display unit 111, it is possible to arbitrarily select the image to be obtained by the procedure described in the first embodiment. このようにして、電子カメラ300は、サーバ400から撮影パラメータ及び画像データを取得することができる。 In this way, the electronic camera 300 can acquire the imaging parameters and image data from the server 400.

本実施の形態によれば、演算処理が必要な特徴抽出部406、及び撮影パラメータ部407をサーバ400側に設置しているので、電子カメラ300内の構成を簡素にすることができ、また電子カメラ300内の記憶部を小容量にすることができる。 According to the present embodiment, the arithmetic processing is necessary feature extraction unit 406, and imaging since the parameter portion 407 are installed on the server 400 side, it is possible to simplify the structure of the electronic camera 300, also electronic a storage unit in the camera 300 may be a small volume.

以上の説明は本発明の好適な実施の形態の例証であり、本発明の範囲はこれに限定されることはない。 The above description is illustration of preferred embodiments of the present invention, the scope of the present invention is not limited thereto. 被写体の光学像を撮像する撮像装置を有する電子機器であればどのような装置にも適用できる。 It can be applied to any device as long as an electronic device having an imaging device for imaging an optical image of a subject. 例えば、デジタルカメラ及び業務用ビデオカメラは勿論のこと、カメラ付き携帯電話機、PDA(Personal Digital Assistants)等の携帯情報端末、及び電子カメラを備えるパソコン等の情報処理装置にも適用可能である。 For example, digital cameras and professional video camera of course, the mobile phone with a camera, is also applicable to an information processing apparatus such as a personal computer equipped PDA (Personal Digital Assistants) or the like of the portable information terminal, and an electronic camera.

また、本実施の形態では、電子カメラという名称を用いたが、これは説明の便宜上であり、撮影装置やデジタルカメラ等であってもよい。 Further, in the present embodiment uses the name electronic camera, this is for convenience of explanation, it may be a photographic apparatus, a digital camera, or the like.

さらに、上記電子カメラを構成する各構成部、例えば撮像光学系の種類、その駆動部及び取付け方法など、さらには追尾処理部の種類などは前述した実施の形態に限られない。 Furthermore, each component constituting the electronic camera, for example, the type of the imaging optical system, such as the drive unit and the mounting method, further is kind of tracking processing unit is not limited to the embodiments described above.

以上説明した電子カメラは、この電子カメラの撮像方法を機能させるためのプログラムでも実現される。 Above-described electronic camera can also be realized by a program for operating the imaging method of the electronic camera. このプログラムはコンピュータで読み取り可能な記録媒体に格納されている。 This program is stored in a computer-readable recording medium.

本発明に係る電子カメラは、様々なシーンにおける標準的な撮影パラメータの設定値を保持させておき、その中から最適なものをユーザに選択させるという方式をもつ撮像装置に適用することができる。 Electronic camera according to the present invention can be applied to an imaging apparatus having a method called standard shooting advance parameter is holding a set value, the user to select the optimum one among them in various scenes. デジタルカメラ、デジタルビデオカメラといった種々の撮像装置として有用である。 Digital cameras, it is useful as various imaging apparatus such as a digital video camera.

100,200,300 電子カメラ 101 撮像光学系 102 イメージセンサ 103 信号処理部 104 画像撮影部 105,405 外部インターフェース 106,406 特徴抽出部 107,407 撮影パラメータ設定部 108,408 データ記憶部 109 類似度判定部 110 画像選択部 111 画像表示部 201 計時部 301,401 送受信部 302,402 インターフェース 400 サーバ 500 ネットワーク 100,200,300 electronic camera 101 imaging optical system 102 image sensor 103 signal processing unit 104 image capturing unit 105,405 external interface 106, 406 feature extraction unit 107, 407 imaging parameter setting unit 108,408 data storage unit 109 similarity determination part 110 image selection unit 111 image display unit 201 time measuring unit 301, 401 reception section 302, 402 interface 400 the server 500 network

Claims (15)

  1. 撮影手段と、 An imaging means,
    前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、 Feature extracting means for extracting feature information of an image from the sample image data image data captured, or designated by the user in advance by the imaging means,
    抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段とを備え、 Based on the extracted feature information, and an imaging parameter setting means for creating the imaging parameters for setting imaging conditions,
    前記撮影手段は、前記撮影パラメータ設定手段により作成された撮影パラメータを用いて撮影を行う電子カメラ。 The imaging means, an electronic camera for photographing using the imaging parameters created by the photographing parameter setting means.
  2. 前記特徴抽出手段は、画像データのExif(Exchangeable Image File Format)情報から撮影時の設定データを特徴情報として抽出する、請求項1記載の電子カメラ。 The feature extraction unit, the setting data at the time of shooting from the Exif (Exchangeable Image File Format) information of the image data is extracted as characteristic information, claim 1 electronic camera according.
  3. 前記特徴抽出手段は、画像データの輪郭特徴、色彩特徴、配置を分析して画像の特徴情報を抽出する、請求項1記載の電子カメラ。 The feature extraction unit, of the image data contour feature, color feature, extracts feature information of the image by analyzing the arrangement, according to claim 1 electronic camera according.
  4. 前記撮影パラメータは絞り、露出時間、焦点距離、画角の設定情報を含む、請求項1記載の電子カメラ。 The imaging parameter aperture, exposure time, focal length, including setting information of the angle of view, according to claim 1 electronic camera according.
  5. 前記撮影パラメータ設定手段は、前記特徴情報に基づいて、複数の撮影パラメータを作成する、請求項1記載の電子カメラ。 The imaging parameter setting means, on the basis of the characteristic information, to create a plurality of imaging parameters, Claim 1 electronic camera according.
  6. 前記撮影手段は、前記複数の撮影パラメータ毎に撮影する、請求項1記載の電子カメラ。 The imaging means photographed for each of the plurality of photographing parameters, Claim 1 electronic camera according.
  7. 前記撮影パラメータ設定手段により作成された複数の撮影パラメータを記憶する記憶手段と、 Storage means for storing a plurality of photographing parameters created by the imaging parameter setting means,
    前記記憶手段に記録されている複数の撮影パラメータのうち、いずれか一つを選択する撮影パラメータ選択手段と、を備える請求項1記載の電子カメラ。 Among the plurality of imaging parameters recorded in the storage unit, according to claim 1 electronic camera further comprising a, an imaging parameter selection means for selecting any one.
  8. 前記記憶手段は、前記撮影パラメータを選択した回数を、該撮影パラメータに関連付けて記憶する、請求項7記載の電子カメラ。 Wherein the storage unit, the number of times selecting the imaging parameters, stored in association with the imaging parameters, Claim 7 electronic camera according.
  9. 計時手段を備え、 Equipped with a timer means,
    前記記憶手段は、前記撮影パラメータを選択した時刻を、該撮影パラメータに関連付けて記憶する、請求項7記載の電子カメラ。 Wherein the storage unit, the time of selecting the shooting parameters are stored in association with the imaging parameters, Claim 7 electronic camera according.
  10. 画像表示手段と、 And image display means,
    画像データを記憶する画像記憶手段と、 An image storage means for storing image data,
    前記画像記憶手段に記憶された画像データを前記画像表示手段に複数表示し、表示された画像の中から任意の画像を一つ又は複数選択する画像選択手段と、を備える請求項1記載の電子カメラ。 Said image storage means image data stored in the plurality of display on the image display means, electronic of claim 1 and an image selection means for one or more select arbitrary image from among the displayed images camera.
  11. 前記画像選択手段は、前記画像表示手段に表示した画像のうち、選択した画像データ以外の画像データを前記画像記憶手段から削除する、請求項10記載の電子カメラ。 Wherein the image selecting means, among the images displayed on the image display means deletes the image data other than image data selected from said image storage means, according to claim 10 electronic camera according.
  12. 前記特徴抽出手段により抽出したサンプル画像データの特徴情報と前記撮影手段により撮影した画像データの特徴情報とから画像の類似度を判定する類似度判定手段をさらに備える請求項10記載の電子カメラ。 The feature extraction unit electronic camera as claimed in claim 10, further comprising determining similarity determination unit similarity image from the feature information of the image data captured by the feature information and the capturing means of the extracted sample image data by.
  13. 前記類似度判定手段は、前記画像の類似度の高さに応じてランク付けし、 The similarity determination unit ranks according to the height of the similarity of the image,
    前記画像表示手段は、画像データに、前記ランク付けの結果を付加して表示する、請求項12記載の電子カメラ。 Wherein the image display means, the image data, the ranking of the display by adding the results, the electronic camera of claim 12, wherein.
  14. 撮影手段と、ネットワーク上のサーバとの間でデータを送受信する通信手段とを備える電子カメラであって、 A photographing unit, an electronic camera and a communication means for transmitting and receiving data to and from the server on the network,
    前記サーバは、前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、 The server includes a feature extraction means for extracting the feature information of the image data captured, or the user image from the sample image data designated in advance by said photographing means,
    抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段と、 Based on the extracted feature information, the photographing parameter setting means for creating the imaging parameters for setting imaging conditions,
    作成した撮影パラメータを前記ネットワーク上に送信する送信手段とを備え、 The imaging parameters created and transmitting means for transmitting on said network,
    前記通信手段は、前記ネットワーク上に送信された撮影パラメータを受信し、 Wherein the communication unit receives imaging parameter transmitted over said network,
    前記撮影手段は、受信した撮影パラメータを用いて撮影を行う電子カメラ。 The imaging means, an electronic camera for photographing using the imaging parameters received.
  15. 前記サーバは、画像データのサムネイルを作成し、 The server creates thumbnail image data,
    前記送信手段は、作成されたサムネイルを送信する請求項14記載の電子カメラ。 The transmission unit, an electronic camera according to claim 14, wherein transmitting the thumbnails created.
JP2009257285A 2009-11-10 2009-11-10 Electronic camera Pending JP2011103548A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009257285A JP2011103548A (en) 2009-11-10 2009-11-10 Electronic camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009257285A JP2011103548A (en) 2009-11-10 2009-11-10 Electronic camera
PCT/JP2010/003176 WO2011058675A1 (en) 2009-11-10 2010-05-10 Electronic camera and semiconductor integrated circuit device for electronic camera device

Publications (1)

Publication Number Publication Date
JP2011103548A true true JP2011103548A (en) 2011-05-26

Family

ID=43991351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009257285A Pending JP2011103548A (en) 2009-11-10 2009-11-10 Electronic camera

Country Status (2)

Country Link
JP (1) JP2011103548A (en)
WO (1) WO2011058675A1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013207418A (en) * 2012-03-27 2013-10-07 Zenrin Datacom Co Ltd Imaging system and imaging management server
JP2013211719A (en) * 2012-03-30 2013-10-10 Nikon Corp Digital camera
JP2013239861A (en) * 2012-05-14 2013-11-28 Freebit Co Ltd Image capturing system
WO2013179742A1 (en) 2012-05-30 2013-12-05 ソニー株式会社 Information processing device, system, and storage medium
WO2014054221A1 (en) * 2012-10-02 2014-04-10 パナソニック株式会社 Image display method, image display apparatus, and image providing method
JPWO2013183338A1 (en) * 2012-06-07 2016-01-28 ソニー株式会社 The information processing apparatus and storage medium
EP3018892A1 (en) * 2014-10-31 2016-05-11 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP2016092537A (en) * 2014-10-31 2016-05-23 キヤノン株式会社 Imaging device, control method therefor, program, and storage medium
CN103959265B (en) * 2013-09-03 2017-04-12 松下电器(美国)知识产权公司 The image display method, image display apparatus and an image providing method
US9800771B2 (en) 2012-12-27 2017-10-24 Olympus Corporation Server apparatus and photographing apparatus for setting a photographing parameter for capturing an image based on extracted user preference data

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108915A (en) * 2004-10-01 2006-04-20 Canon Inc Apparatus and method for image photographing
JP4492345B2 (en) * 2004-12-28 2010-06-30 カシオ計算機株式会社 The camera device, and photographing condition setting method
EP1964392A1 (en) * 2005-12-22 2008-09-03 Olympus Corporation Photographing system and photographing method
JP2008066886A (en) * 2006-09-05 2008-03-21 Olympus Imaging Corp Camera, communication control device, photography technical assistance system, photography technical assistance method, program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013207418A (en) * 2012-03-27 2013-10-07 Zenrin Datacom Co Ltd Imaging system and imaging management server
JP2013211719A (en) * 2012-03-30 2013-10-10 Nikon Corp Digital camera
US9602710B2 (en) 2012-05-14 2017-03-21 Freebit Co., Ltd. Automated parameter optimization for an image shooting system
JP2013239861A (en) * 2012-05-14 2013-11-28 Freebit Co Ltd Image capturing system
WO2013179742A1 (en) 2012-05-30 2013-12-05 ソニー株式会社 Information processing device, system, and storage medium
US9386212B2 (en) 2012-05-30 2016-07-05 Sony Corporation Information processing device, system and storage medium to provide shooting parameters
JPWO2013179742A1 (en) * 2012-05-30 2016-01-18 ソニー株式会社 The information processing apparatus, system, and storage medium
US9438788B2 (en) 2012-06-07 2016-09-06 Sony Corporation Information processing device and storage medium
JPWO2013183338A1 (en) * 2012-06-07 2016-01-28 ソニー株式会社 The information processing apparatus and storage medium
CN103959265A (en) * 2012-10-02 2014-07-30 松下电器产业株式会社 Image display method, image display apparatus, and image providing method
WO2014054221A1 (en) * 2012-10-02 2014-04-10 パナソニック株式会社 Image display method, image display apparatus, and image providing method
JPWO2014054221A1 (en) * 2012-10-02 2016-08-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image display method, image display apparatus, and an image providing method
US9508323B2 (en) 2012-10-02 2016-11-29 Panasonic Intellectual Property Corporation Of America Appliance control system and method for controlling an appliance based on processing done by another appliance
US9800771B2 (en) 2012-12-27 2017-10-24 Olympus Corporation Server apparatus and photographing apparatus for setting a photographing parameter for capturing an image based on extracted user preference data
CN103959265B (en) * 2013-09-03 2017-04-12 松下电器(美国)知识产权公司 The image display method, image display apparatus and an image providing method
EP3018892A1 (en) * 2014-10-31 2016-05-11 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US9692971B2 (en) 2014-10-31 2017-06-27 Canon Kabushiki Kaisha Image capturing apparatus capable of automatically switching from reproduction mode to shooting mode and displaying live view image and control method thereof
JP2016092537A (en) * 2014-10-31 2016-05-23 キヤノン株式会社 Imaging device, control method therefor, program, and storage medium

Also Published As

Publication number Publication date Type
WO2011058675A1 (en) 2011-05-19 application

Similar Documents

Publication Publication Date Title
US20040202456A1 (en) Image processing program and image processing apparatus
US20080131107A1 (en) Photographing apparatus
US20060072915A1 (en) Camera with an auto-focus function
US20050134719A1 (en) Display device with automatic area of importance display
US20070266312A1 (en) Method for displaying face detection frame, method for displaying character information, and image-taking device
US20070081796A1 (en) Image capture method and device
US20080205869A1 (en) Image taking apparatus
US20090059054A1 (en) Apparatus, method, and recording medium containing program for photographing
US20110025865A1 (en) Camera and camera control method
US20050212817A1 (en) Display device and method for determining an area of importance in an original image
US20090091633A1 (en) Image-taking method and apparatus
JP2004046591A (en) Picture evaluation device
JP2004135029A (en) Digital camera
JP2004207774A (en) Digital camera
JP2007174548A (en) Photographing device and program
JP2006201282A (en) Digital camera
JP2005269563A (en) Image processor and image reproducing apparatus
JP2004185555A (en) Facial area extracting method and device
US20080122944A1 (en) Apparatus, method and program for photography
US20070147826A1 (en) Photographing system and photographing method
JP2003143444A (en) Image pickup device, its control method, program and storage medium
JP2004192129A (en) Method and device for extracting facial area
US20120242851A1 (en) Digital camera having burst image capture mode
JP2006025238A (en) Imaging device
JP2006145629A (en) Imaging apparatus