JP2009065450A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2009065450A
JP2009065450A JP2007231516A JP2007231516A JP2009065450A JP 2009065450 A JP2009065450 A JP 2009065450A JP 2007231516 A JP2007231516 A JP 2007231516A JP 2007231516 A JP2007231516 A JP 2007231516A JP 2009065450 A JP2009065450 A JP 2009065450A
Authority
JP
Japan
Prior art keywords
user
voice
unit
input
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007231516A
Other languages
Japanese (ja)
Inventor
Nobuyuki Watanabe
伸之 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2007231516A priority Critical patent/JP2009065450A/en
Publication of JP2009065450A publication Critical patent/JP2009065450A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus in which a parameter is simply set by every user. <P>SOLUTION: A temporary storage part 1013 stores a parameter concerning execution of a predetermined function and attributes of a user by associating them with each other. A user identification part 1012 identifies the attributes of the user based on user's voice input in a voice input part 1011. A system controller 1001 reads a parameter corresponding to the attributes of the user detected by the user identification part 1012 from the temporary storage part 1013 to be set. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、デジタルカメラやデジタルビデオカメラ等の撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital camera or a digital video camera.

民生用のデジタルカメラにおいて、所定の機能に実行に係るシステムパラメータが用意されている。使用者が、被写体に応じたシステムパラメータを即時に決定することは熟練を要するため、これを簡略化し、手軽に良い画像を記録できるプログラムモードや自動シーン検出の機能が用意されている。   In a consumer digital camera, system parameters related to execution of predetermined functions are prepared. Since it is necessary for the user to determine system parameters according to the subject immediately, skill is required, and a program mode and an automatic scene detection function are provided that can simplify and easily record a good image.

自動検出モードでは特定の被写体(人物の顔等)や、周辺の環境光、逆光撮影の有無を検出することが可能であり、それらの検出結果に応じて最適なシステムパラメータが設定される。また、より詳細にシステムパラメータを選択するために、使用者が選択できるシーンプログラムが用意されている。例えば、「スポーツ」モードでは、シャッタ速度を優先し、場合によってはISO感度の向上やアンダーの露光を設定する。「料理」モードでは、赤みを強調した設定になっている。「寝顔」モードでは、感度を向上させ、フラッシュオフにする。また、人物の顔を検出し、露出や色バランスを自動的に補正するカメラも実用化されている。   In the automatic detection mode, it is possible to detect the presence or absence of a specific subject (such as a person's face), ambient ambient light, and backlighting, and optimal system parameters are set according to the detection results. In order to select system parameters in more detail, a scene program that can be selected by the user is prepared. For example, in the “sports” mode, priority is given to the shutter speed, and in some cases, improvement of ISO sensitivity or underexposure is set. In the “Cooking” mode, red is emphasized. In “sleeping face” mode, the sensitivity is improved and the flash is turned off. A camera that detects a human face and automatically corrects exposure and color balance has also been put into practical use.

上記のシーンプログラムに関しては、カメラシステムのファームウェアを書き換えることで、新たなシーンプログラムをカメラシステムに導入することができる。例えば、製造・販売元からファームウェアを使用者に提供する場合、ネットワークを介して使用者にダウンロードして貰うことで新たなシーンプログラムの導入が行えるし、固体メモリやCD-ROMを配布することによっても新たなシーンプログラムの導入が行える。   As for the above scene program, a new scene program can be introduced into the camera system by rewriting the firmware of the camera system. For example, when providing firmware to a user from a manufacturer or distributor, a new scene program can be introduced by downloading to the user via a network, and by distributing solid-state memory or CD-ROM Can also introduce new scene programs.

一方で、マイクロフォンを備え、音声入力を可能としたデジタルカメラは、従来から種々提供されている。この種のカメラは、撮像された被写体画像をカメラに付属のモニタ装置で再生する際、入力された音声も同時に再生するようになっている。特許文献1に開示されたカメラでは、入力された音声を画像表示と同時に再生するだけでなく、入力された音声を分析し、音声を“ひらがな”、“カタカナ”、“漢字”、“アルファベット”等の文字画像に変換し、これを被写体像と合成することによって、撮影した画像を印刷する際に文字も一緒に印字することを可能としている。このカメラによれば、撮影時の会話内容が、印刷された画像上に書き込まれるので、静止画像を見るだけでは得られない情報を得ることができる。
特開平5−184544号公報
On the other hand, various digital cameras including a microphone and capable of inputting voice have been conventionally provided. In this type of camera, when a captured subject image is reproduced on a monitor device attached to the camera, the input sound is also reproduced at the same time. In the camera disclosed in Patent Document 1, not only the input sound is reproduced simultaneously with the image display, but also the input sound is analyzed and the sound is converted into “Hiragana”, “Katakana”, “Kanji”, “Alphabet”. Are converted into a character image and combined with the subject image, the character can be printed together when the photographed image is printed. According to this camera, since the conversation content at the time of shooting is written on the printed image, it is possible to obtain information that cannot be obtained only by looking at the still image.
JP-A-5-184544

シーンプログラムを使用者が選択する従来の方式では、必要以上の種類のシーンプログラムを用意した場合、メニュー上で目的のシーンプログラムに到達するまでに時間を要し、使用者に負担を強いることになる。また、目的のシーンプログラムに到達するまでに時間を要してしまった結果、シャッターチャンスを逃す場合もある。このように、システムパラメータの設定が複雑で時間を要するという問題があった。   In the conventional method in which the user selects a scene program, if more than necessary types of scene programs are prepared, it takes time to reach the target scene program on the menu, which imposes a burden on the user. Become. In addition, there is a case where a photo opportunity is missed as a result of taking time to reach the target scene program. As described above, there is a problem that the setting of system parameters is complicated and takes time.

本発明は、上述した課題に鑑みてなされたものであって、使用者毎にパラメータを簡易に設定することができる撮像装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an imaging device capable of easily setting parameters for each user.

本発明は、上記の課題を解決するためになされたもので、光学像を結像する光学系(図1等のレンズ1002に対応)と、前記光学系によって結像された光学像を電気信号に変換する撮像手段(図1等のCCD1003に対応)と、使用者の属性を検出する属性検出手段(図1等の音声入力部1010、音声認識処理部1011、使用者識別部1012、図12のアイピース光学系1020、画像生成部1021、画像認識処理部1022に対応)と、所定の機能の実行に係るパラメータと前記使用者の属性を関連付けて記憶する記憶手段(図1等の一時記憶部1013に対応)と、前記属性検出手段によって検出された前記使用者の属性に対応した前記パラメータを前記記憶手段から読み出して設定する設定手段(図1等のシステムコントローラ1001に対応)とを備えたことを特徴とする撮像装置(図1のカメラシステム1a、図10のカメラシステム1b、図12のカメラシステム1cに対応)である。   The present invention has been made to solve the above-described problems. An optical system for forming an optical image (corresponding to the lens 1002 in FIG. 1 and the like) and an optical image formed by the optical system are converted into an electrical signal. Imaging means (corresponding to the CCD 1003 in FIG. 1) and attribute detection means (sound input unit 1010, speech recognition processing unit 1011 in FIG. 1, etc., user identification unit 1012, FIG. 12). Eyepiece optical system 1020, image generation unit 1021, and image recognition processing unit 1022), and a storage unit (temporary storage unit such as FIG. 1) that stores parameters associated with execution of a predetermined function and the attribute of the user in association with each other 1013) and setting means for reading and setting the parameter corresponding to the user attribute detected by the attribute detection means from the storage means (system controller in FIG. An imaging apparatus characterized by comprising a support) to over La 1001 (camera system 1a of Figure 1, the camera system 1b in FIG. 10, corresponding to the camera system 1c in FIG. 12).

また、本発明の撮像装置は、前記使用者が前記パラメータを入力するパラメータ入力手段(図1等の音声入力部1010、音声認識処理部1011、操作キー1015に対応)をさらに備え、前記記憶手段は、前記パラメータ入力手段に入力された前記パラメータと、前記属性検出手段によって検出された前記使用者の属性とを関連付けて記憶することを特徴とする。   The imaging apparatus of the present invention further includes parameter input means (corresponding to the voice input unit 1010, the voice recognition processing unit 1011 and the operation key 1015 in FIG. 1 and the like) for the user to input the parameters, and the storage unit Is characterized in that the parameter input to the parameter input means and the attribute of the user detected by the attribute detection means are stored in association with each other.

また、本発明の撮像装置において、前記属性検出手段は、前記使用者が音声を入力する音声入力手段(図1等の音声入力部1010に対応)と、前記音声入力手段に入力された前記使用者の音声に基づいて前記使用者の属性を識別する属性識別手段(図1等の音声認識処理部1011、使用者識別部1012に対応)とを有することを特徴とする。   In the imaging apparatus of the present invention, the attribute detection unit includes a voice input unit (corresponding to the voice input unit 1010 in FIG. 1 and the like) through which the user inputs a voice, and the use input to the voice input unit. And attribute identifying means (corresponding to the speech recognition processing unit 1011 and the user identifying unit 1012 in FIG. 1 and the like) for identifying the user attribute based on the user's voice.

また、本発明の撮像装置において、前記属性検出手段は、前記使用者の画像を取得する画像取得手段(図12のアイピース光学系1020、画像生成部1021に対応)と、前記画像取得手段によって取得された前記使用者の画像に基づいて前記使用者の属性を識別する属性識別手段(図12の画像認識処理部1022、使用者識別部1012に対応)とを有することを特徴とする。   In the imaging apparatus of the present invention, the attribute detection unit is acquired by an image acquisition unit (corresponding to the eyepiece optical system 1020 and the image generation unit 1021 in FIG. 12) that acquires the image of the user, and the image acquisition unit. And an attribute identifying means (corresponding to the image recognition processing unit 1022 and the user identifying unit 1012 in FIG. 12) for identifying the user attribute based on the user image.

また、本発明の撮像装置において、前記パラメータ入力手段は、前記使用者が音声を入力する音声入力手段(図1等の音声入力部1010に対応)と、前記音声入力手段に入力された前記使用者の音声に基づいて前記パラメータを認識するパラメータ認識手段(図1等の音声認識処理部1011に対応)とを有することを特徴とする。   In the imaging apparatus of the present invention, the parameter input unit includes a voice input unit (corresponding to the voice input unit 1010 in FIG. 1 and the like) through which the user inputs voice, and the use input to the voice input unit. Parameter recognition means (corresponding to the speech recognition processing unit 1011 in FIG. 1 and the like) for recognizing the parameters based on the voice of the person.

上記において、括弧で括った部分の記述は、後述する本発明の実施形態と本発明の構成要素とを便宜的に対応付けるためのものであり、この記述によって本発明の内容が限定されるわけではない。   In the above description, the description in parentheses is for the purpose of associating the embodiment of the present invention described later with the components of the present invention for convenience, and the contents of the present invention are not limited by this description. Absent.

本発明によれば、予め用意されたパラメータのうち、使用者の属性に対応したパラメータが自動的に設定されるので、使用者毎にパラメータを簡易に設定することができるという効果が得られる。   According to the present invention, among the parameters prepared in advance, the parameter corresponding to the user's attribute is automatically set, so that the effect that the parameter can be easily set for each user is obtained.

以下、図面を参照し、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
まず、本発明の第1の実施形態を説明する。図1は、本実施形態によるカメラシステム1aの構成を示している。また、図2は、カメラシステム1aの本体を上から見た外観を示している。図1において、実線は画像信号、音声信号、またはシステムパラメータ等のデータの流れを示しており、破線は制御信号を示している。図1に示すカメラシステム1aは、システムコントローラ1001、レンズ1002、CCD1003、撮像回路1004、A/D変換回路1005、信号処理回路1006、圧縮回路1007、記憶メディア1008、表示部1009、音声入力部1010、音声認識処理部1011、使用者識別部1012、一時記憶部1013、レリーズボタン1014、操作キー1015、モード選択ダイヤル1016、フラッシュ1017、および測光センサ1018を備えている。
(First embodiment)
First, a first embodiment of the present invention will be described. FIG. 1 shows the configuration of the camera system 1a according to the present embodiment. FIG. 2 shows the appearance of the camera system 1a as viewed from above. In FIG. 1, a solid line indicates the flow of data such as an image signal, an audio signal, or a system parameter, and a broken line indicates a control signal. A camera system 1a shown in FIG. 1 includes a system controller 1001, a lens 1002, a CCD 1003, an imaging circuit 1004, an A / D conversion circuit 1005, a signal processing circuit 1006, a compression circuit 1007, a storage medium 1008, a display unit 1009, and an audio input unit 1010. A voice recognition processing unit 1011, a user identification unit 1012, a temporary storage unit 1013, a release button 1014, an operation key 1015, a mode selection dial 1016, a flash 1017, and a photometric sensor 1018.

システムコントローラ1001はカメラシステム1aの全体的な制御を行う。レンズ1002は被写体からの光をCCD1003の撮像面に光学的に結像し、被写体の光学像を形成する。図2に示すように、レンズ1002はカメラシステム1aの本体の前面に設けられている。CCD1003は、撮像面に結像された光学像を光電変換により電気信号に変換する。撮像回路1004は、CCD1003に対して走査タイミングや走査方式の設定を行うと共に、CCD1003から出力されたアナログ信号に対して、増幅処理、ホワイトバランス処理、およびノイズ低減のための画素加算処理を行う。   A system controller 1001 performs overall control of the camera system 1a. The lens 1002 optically forms light from the subject on the imaging surface of the CCD 1003 to form an optical image of the subject. As shown in FIG. 2, the lens 1002 is provided on the front surface of the main body of the camera system 1a. The CCD 1003 converts an optical image formed on the imaging surface into an electric signal by photoelectric conversion. The imaging circuit 1004 sets the scanning timing and scanning method for the CCD 1003, and performs amplification processing, white balance processing, and pixel addition processing for noise reduction on the analog signal output from the CCD 1003.

A/D変換回路1005は、撮像回路1004によって処理されたアナログ信号をデジタル信号に変換する。信号処理回路1006は、A/D変換回路1005から出力されたデジタル信号に対して、階調補正、色調整、ノイズフィルタ、エッジ強調、および電子ズームの各処理を行い、画像データとする。圧縮回路1007は、信号処理回路1006によって処理された画像データを圧縮する。   The A / D conversion circuit 1005 converts the analog signal processed by the imaging circuit 1004 into a digital signal. A signal processing circuit 1006 performs gradation correction, color adjustment, noise filter, edge enhancement, and electronic zoom on the digital signal output from the A / D conversion circuit 1005 to obtain image data. The compression circuit 1007 compresses the image data processed by the signal processing circuit 1006.

記憶メディア1008は画像データを記憶するほか、後述する使用者の属性情報とシステムパラメータとを関連付けて記憶する。記憶メディア1008はカメラシステム1aに固定されるものでもよいし、カメラシステム1aに対して着脱可能な可搬式のものでもよい。表示部1009は、信号処理回路1006によって処理された画像データに基づいて画像を表示するほか、メニューやシステムパラメータ等を表示する。   In addition to storing image data, the storage medium 1008 stores user attribute information (to be described later) and system parameters in association with each other. The storage medium 1008 may be fixed to the camera system 1a, or may be a portable type that can be attached to and detached from the camera system 1a. The display unit 1009 displays an image based on the image data processed by the signal processing circuit 1006, and displays a menu, system parameters, and the like.

音声入力部1010はマイクロフォンを有している。使用者が音声入力部1010に音声を入力すると、その音声に基づいた音声信号が音声入力部1010から出力される。音声認識処理部1011は、音声入力部1010から出力される音声信号に基づいて音声パターン(声紋パターン)および音声の内容(音声が示す文字列)を認識する。使用者識別部1012は、音声認識処理部1011によって認識された音声パターンを、予め登録された音声パターンと比較し、比較結果に基づいて使用者を識別する。一時記憶部1013はシステムパラメータ等を一時的に記憶する。   The voice input unit 1010 has a microphone. When the user inputs voice to the voice input unit 1010, a voice signal based on the voice is output from the voice input unit 1010. The voice recognition processing unit 1011 recognizes the voice pattern (voice pattern) and the content of the voice (character string indicated by the voice) based on the voice signal output from the voice input unit 1010. The user identifying unit 1012 compares the speech pattern recognized by the speech recognition processing unit 1011 with a previously registered speech pattern, and identifies the user based on the comparison result. The temporary storage unit 1013 temporarily stores system parameters and the like.

レリーズボタン1014は、使用者が撮影指示を入力するためのボタンである。操作キー1015は、使用者がメニュー操作を行ったり、システムパラメータを入力したりするためのキーである。モード選択ダイヤル1016は、使用者がカメラシステム1aの動作モードを選択するためのダイヤルである。図2に示すように、モード選択ダイヤル1016はカメラシステム1aの本体の上面に設けられており、その回転位置に応じて動作モードが決定される。フラッシュ1017は光量を補うための発光を行う。測光センサ1018は、自動露光や自動焦点調節に係る測光を実施するセンサである。   The release button 1014 is a button for the user to input a shooting instruction. The operation key 1015 is a key for the user to perform menu operations and input system parameters. The mode selection dial 1016 is a dial for the user to select an operation mode of the camera system 1a. As shown in FIG. 2, the mode selection dial 1016 is provided on the upper surface of the main body of the camera system 1a, and the operation mode is determined according to the rotational position. The flash 1017 emits light to supplement the amount of light. The photometric sensor 1018 is a sensor that performs photometry related to automatic exposure and automatic focus adjustment.

次に、本実施形態におけるシステムパラメータを説明する。システムパラメータは、カメラシステム1aを構成する各部の動作を制御するパラメータである。システムコントローラ1001がカメラシステム1aの制御に用いるシーンプログラムやプリセットプログラムには各種のシステムパラメータが含まれている。本実施形態のシステムパラメータは、主にレンズパラメータ、撮像パラメータ、画像処理パラメータ、測光パラメータ、および補助光パラメータで構成される。   Next, system parameters in the present embodiment will be described. The system parameter is a parameter for controlling the operation of each part constituting the camera system 1a. The scene program and preset program used by the system controller 1001 for controlling the camera system 1a include various system parameters. The system parameters of the present embodiment are mainly composed of lens parameters, imaging parameters, image processing parameters, photometric parameters, and auxiliary light parameters.

レンズパラメータは、レンズ1002の機能の実行に係るパラメータである。このレンズパラメータには、露出に係る絞りやシャッタ速度、光学変倍率(ズーム倍率)等のパラメータが含まれる。撮像パラメータは、撮像回路1004の機能の実行に係るパラメータである。この撮像パラメータには、CCD1003の感度や増幅率のほか、電子シャッタやホワイトバランス処理・画素加算処理等のパラメータが含まれる。画像処理パラメータは、信号処理回路1006の機能の実行に係るパラメータである。この画像処理パラメータには、階調補正、色調整、ノイズフィルタ、エッジ強調、および電子ズーム等の各処理のパラメータが含まれる。   The lens parameter is a parameter related to execution of the function of the lens 1002. The lens parameters include parameters such as the aperture and shutter speed related to exposure, and the optical magnification (zoom magnification). The imaging parameter is a parameter related to execution of the function of the imaging circuit 1004. In addition to the sensitivity and amplification factor of the CCD 1003, the imaging parameters include parameters such as an electronic shutter, white balance processing, and pixel addition processing. The image processing parameter is a parameter related to the execution of the function of the signal processing circuit 1006. The image processing parameters include parameters for processing such as gradation correction, color adjustment, noise filter, edge enhancement, and electronic zoom.

測光パラメータは、測光センサ1018の機能の実行に係るパラメータである。この測光パラメータには、自動露光や自動焦点調節のための測光方法および測光エリア等に関するパラメータが含まれる。補助光パラメータは、フラッシュ1017の機能の実行に係るパラメータである。この補助光パラメータには、先幕発光であるか後幕発光であるか、それともスローシンクロモードで発光を行うか等を示すパラメータのほか、光の照射方向に関する配光のパラメータや波長のパラメータ、発光量のパラメータ等が含まれる。   The photometric parameter is a parameter related to execution of the function of the photometric sensor 1018. The photometric parameters include parameters relating to a photometric method and a photometric area for automatic exposure and automatic focus adjustment. The auxiliary light parameter is a parameter related to execution of the function of the flash 1017. The auxiliary light parameters include parameters indicating whether the front curtain light emission, the rear curtain light emission, or the light emission in the slow sync mode, as well as the light distribution parameter and the wavelength parameter regarding the light irradiation direction, A parameter of light emission amount and the like are included.

次に、本実施形態によるカメラシステム1aの動作を説明する。本実施形態では、使用者個人を識別することが可能な使用者の属性とシーンプログラムまたはプリセットプログラムとの対応関係を記憶メディア1008に予め登録する必要がある。以下、図3を参照しながら、撮影前に行う登録時のカメラシステム1aの動作を説明する。まず、使用者が音声入力部1010に音声を入力すると、音声入力部1010は、その音声に基づいた音声信号を出力する(ステップS100)。この際に入力する音声は何でもよい。音声認識処理部1011は、音声入力部1010からの音声信号に基づいて音声パターンを認識し、使用者の属性を示す使用者属性情報として一時記憶部1013に格納する(ステップS110)。   Next, the operation of the camera system 1a according to the present embodiment will be described. In the present embodiment, it is necessary to register in advance in the storage medium 1008 the correspondence relationship between the user attributes that can identify the individual user and the scene program or preset program. Hereinafter, the operation of the camera system 1a during registration performed before shooting will be described with reference to FIG. First, when the user inputs a voice to the voice input unit 1010, the voice input unit 1010 outputs a voice signal based on the voice (step S100). Any audio may be input at this time. The voice recognition processing unit 1011 recognizes a voice pattern based on the voice signal from the voice input unit 1010, and stores it in the temporary storage unit 1013 as user attribute information indicating a user attribute (step S110).

続いて、シーンプログラムまたはプリセットプログラムに含まれるシステムパラメータの修正が行われる。この修正は、使用者による操作キー1015の操作または音声入力により行われる(ステップS120)。システムパラメータが修正されたシーンプログラムまたはプリセットプログラムは、使用者属性情報と関連付けて一時記憶部1013に格納される。一時記憶部1013に格納された使用者属性情報とシーンプログラムまたはプリセットプログラムは、システムコントローラ1001による制御に従って記憶メディア1008に保存される(ステップS130)。複数の使用者がカメラシステムを使用する場合には、各使用者について上記の動作を行うことにより、各使用者に対応したシーンプログラムまたはプリセットプログラムを登録することができる。   Subsequently, the system parameters included in the scene program or preset program are corrected. This correction is performed by the operation of the operation key 1015 or voice input by the user (step S120). The scene program or preset program in which the system parameters are corrected is stored in the temporary storage unit 1013 in association with the user attribute information. The user attribute information and the scene program or preset program stored in the temporary storage unit 1013 are stored in the storage medium 1008 in accordance with control by the system controller 1001 (step S130). When a plurality of users use the camera system, a scene program or a preset program corresponding to each user can be registered by performing the above operation for each user.

ステップS120において、操作キー1015の操作によりシステムパラメータの修正を行う場合には、使用者が操作キー1015を操作し、シーンプログラムまたはプリセットプログラムを指定する情報と、システムパラメータの種類等を指定する情報とを入力すると、各情報に基づいた信号が操作キー1015からシステムコントローラ1001へ出力される。システムコントローラ1001は、その信号に基づいて、指定されたシーンプログラムまたはプリセットプログラムを記憶メディア1008から読み出して一時記憶部1013に格納し、システムパラメータの修正を実行する。システムパラメータの修正後、システムコントローラ1001は、修正されたシーンプログラムまたはプリセットプログラムを使用者情報と共に記憶メディア1008に格納する。   In step S120, when the system parameter is corrected by operating the operation key 1015, the user operates the operation key 1015 to specify the scene program or the preset program, and the information specifying the type of the system parameter. , A signal based on each information is output from the operation key 1015 to the system controller 1001. Based on the signal, the system controller 1001 reads out the designated scene program or preset program from the storage medium 1008 and stores it in the temporary storage unit 1013 to execute correction of the system parameters. After correcting the system parameters, the system controller 1001 stores the corrected scene program or preset program in the storage medium 1008 together with user information.

また、ステップS120において、音声入力によりシステムパラメータの修正を行う場合には、図4に示す手順に従った処理が実行される。まず、使用者が、システムパラメータの修正に係る音声を音声入力部1010に入力すると、音声入力部1010は、その音声に基づいた音声信号を出力する(ステップS1200)。   In step S120, when system parameters are corrected by voice input, processing according to the procedure shown in FIG. 4 is executed. First, when the user inputs a sound related to the correction of the system parameter to the sound input unit 1010, the sound input unit 1010 outputs a sound signal based on the sound (step S1200).

レンズパラメータに含まれる露出のシステムパラメータを修正する場合、ステップS1200ではシーンプログラムまたはプリセットプログラムを指定する音声に続いて、 “露出”という音声が入力される。また、撮像パラメータに含まれる感度のシステムパラメータを修正する場合、ステップS1200ではシーンプログラムまたはプリセットプログラムを指定する音声に続いて、“感度”という音声が入力される。   When correcting the exposure system parameter included in the lens parameter, in step S1200, the sound “exposure” is input after the sound specifying the scene program or the preset program. When correcting the sensitivity system parameter included in the imaging parameter, in step S1200, the sound “sensitivity” is input following the sound specifying the scene program or the preset program.

また、補助光パラメータに含まれるフラッシュ1017のシステムパラメータを修正する場合、ステップS1200ではシーンプログラムまたはプリセットプログラムを指定する音声に続いて、“フラッシュ”という音声が入力される。また、画像処理パラメータに含まれる画像処理のシステムパラメータを修正する場合、ステップS1200ではシーンプログラムまたはプリセットプログラムを指定する音声に続いて、“画像処理”という音声が入力される。なお、シーンプログラムまたはプリセットプログラムを指定する方法は音声入力に限らず、操作キー1015の操作により行ってもよい。   When the system parameter of the flash 1017 included in the auxiliary light parameter is corrected, in step S1200, the sound “flash” is input after the sound specifying the scene program or the preset program. Also, when correcting the image processing system parameters included in the image processing parameters, in step S1200, the sound “image processing” is input after the sound specifying the scene program or the preset program. The method for designating the scene program or preset program is not limited to voice input, and may be performed by operating the operation key 1015.

続いて、音声認識処理部1011は、音声入力部1010からの音声信号に基づいて音声パターンおよび音声の内容(音声が示す文字列)を認識し、それらの情報を一時記憶部1013に格納する(ステップS1210)。続いて、システムコントローラ1001は記憶メディア1008から使用者属性情報を読み出し、一時記憶部1013に格納する。使用者識別部1012は、ステップS1210で一時記憶部1013に格納した音声パターンを読み出し、使用者属性情報が示す音声パターンと照合し、使用者を識別する(ステップS1220)。ステップS1200で入力された音声から得られた音声パターンと使用者属性情報が示す音声パターンとが一致した場合、その使用者属性情報によって識別される使用者がシステムパラメータを修正しようとしていることが分かる。   Subsequently, the speech recognition processing unit 1011 recognizes the speech pattern and the content of the speech (a character string indicated by the speech) based on the speech signal from the speech input unit 1010 and stores the information in the temporary storage unit 1013 ( Step S1210). Subsequently, the system controller 1001 reads the user attribute information from the storage medium 1008 and stores it in the temporary storage unit 1013. The user identification unit 1012 reads the voice pattern stored in the temporary storage unit 1013 in step S1210, compares it with the voice pattern indicated by the user attribute information, and identifies the user (step S1220). If the voice pattern obtained from the voice input in step S1200 matches the voice pattern indicated by the user attribute information, it is understood that the user identified by the user attribute information is going to correct the system parameter. .

使用者識別部1012は、ステップS1220で識別した使用者に対応した使用者属性情報をシステムコントローラ1001に通知する。また、音声認識処理部1011は、シーンプログラムまたはプリセットプログラムを指定する情報をシステムコントローラ1001に通知する。システムコントローラ1001は、使用者識別部1012から通知された使用者属性情報と関連付けられているシーンプログラムまたはプリセットプログラムを記憶メディア1008から読み出し、一時記憶部1013に格納する(ステップS1230)。   The user identifying unit 1012 notifies the system controller 1001 of user attribute information corresponding to the user identified in step S1220. Further, the voice recognition processing unit 1011 notifies the system controller 1001 of information specifying a scene program or a preset program. The system controller 1001 reads the scene program or preset program associated with the user attribute information notified from the user identification unit 1012 from the storage medium 1008 and stores it in the temporary storage unit 1013 (step S1230).

続いて、システムコントローラ1001は、ステップS1210で認識された音声の内容を示す情報を一時記憶部1013から読み出し、その情報に基づいて、露出のシステムパラメータの修正を行うか否かを判定する(ステップS1240)。ステップS1210で認識された音声が“露出”であった場合にはステップS1280に進み、露出のシステムパラメータの修正が行われる。   Subsequently, the system controller 1001 reads information indicating the content of the voice recognized in step S1210 from the temporary storage unit 1013, and determines whether or not to correct the exposure system parameters based on the information (step). S1240). If the voice recognized in step S1210 is “exposure”, the process proceeds to step S1280 to correct the exposure system parameter.

また、ステップS1210で認識された音声が“露出”でなかった場合には、システムコントローラ1001は、感度のシステムパラメータの修正を行うか否かを判定する(ステップS1250)。ステップS1210で認識された音声が“感度”であった場合にはステップS1290に進み、感度のシステムパラメータの修正が行われる。   If the voice recognized in step S1210 is not “exposure”, the system controller 1001 determines whether or not to correct the sensitivity system parameter (step S1250). If the voice recognized in step S1210 is “sensitivity”, the process proceeds to step S1290, and the sensitivity system parameter is corrected.

また、ステップS1210で認識された音声が“感度”でなかった場合には、システムコントローラ1001は、フラッシュ1017のシステムパラメータの修正を行うか否かを判定する(ステップS1260)。ステップS1210で認識された音声が“フラッシュ”であった場合にはステップS1300に進み、フラッシュ1017のシステムパラメータの修正が行われる。   If the voice recognized in step S1210 is not “sensitivity”, the system controller 1001 determines whether or not to correct the system parameters of the flash 1017 (step S1260). If the voice recognized in step S1210 is “flash”, the process proceeds to step S1300, and the system parameters of the flash 1017 are corrected.

また、ステップS1210で認識された音声が “フラッシュ”でなかった場合には、システムコントローラ1001は、画像処理のシステムパラメータの修正を行うか否かを判定する(ステップS1270)。ステップS1210で認識された音声が“画像処理”であった場合にはステップS1310に進み、画像処理のシステムパラメータの修正が行われる。また、ステップS1210で認識された音声が“画像処理”でなかった場合には、システムパラメータの修正は行われず、図3に示すステップS130に処理が進む。   If the voice recognized in step S1210 is not “flash”, the system controller 1001 determines whether or not to correct the image processing system parameter (step S1270). If the sound recognized in step S1210 is “image processing”, the process proceeds to step S1310, and the system parameters of the image processing are corrected. If the sound recognized in step S1210 is not “image processing”, the system parameters are not corrected, and the process proceeds to step S130 shown in FIG.

以下、図5〜図8を参照しながら、ステップS1280〜S1310の処理内容を説明する。図5は、露出のシステムパラメータを修正するステップS1280の処理手順を示している。まず、システムパラメータの修正内容を示す音声が使用者によって音声入力部1010に入力され、音声入力部1010は、その音声に基づいた音声信号を出力する(ステップS1280a)。ステップS1280aでは、例えば“絞りマイナス0.5”という音声が入力される。   Hereinafter, the processing content of steps S1280 to S1310 will be described with reference to FIGS. FIG. 5 shows the procedure of step S1280 for correcting the exposure system parameters. First, a voice indicating the correction contents of the system parameter is input to the voice input unit 1010 by the user, and the voice input unit 1010 outputs a voice signal based on the voice (step S1280a). In step S1280a, for example, a voice “aperture minus 0.5” is input.

続いて、音声認識処理部1011は、音声入力部1010からの音声信号に基づいて音声の内容(音声が示す文字列)を認識し(ステップS1280b)、さらに認識した文字列をキーワードに分解し、その情報を一時記憶部1013に格納する(ステップS1280c)。例えば“絞りマイナス0.5”という音声がステップS1280aで入力された場合、認識した文字列が“絞り”、“マイナス”、“0.5”という3つのキーワードに分解される。   Subsequently, the voice recognition processing unit 1011 recognizes the content of the voice (character string indicated by the voice) based on the voice signal from the voice input unit 1010 (step S1280b), further decomposes the recognized character string into keywords, The information is stored in the temporary storage unit 1013 (step S1280c). For example, when the voice “aperture minus 0.5” is input in step S1280a, the recognized character string is decomposed into three keywords “aperture”, “minus”, and “0.5”.

続いて、システムコントローラ1001は、ステップS1280bで認識されたキーワードを一時記憶部1013から読み出し、キーワードに“絞り”が含まれることから絞り値を修正すると判断し、シーンプログラムまたはプリセットプログラムに設定されている絞り値を一時記憶部1013から読み出す(ステップS1280d)。   Subsequently, the system controller 1001 reads the keyword recognized in step S1280b from the temporary storage unit 1013, determines that the aperture value is corrected because the keyword includes “aperture”, and is set in the scene program or preset program. The aperture value being read is read out from the temporary storage unit 1013 (step S1280d).

システムコントローラ1001は、読み出した絞り値を、ステップS1280bで認識されたキーワードに基づいて修正し、修正後の絞り値を一時記憶部1013に格納する(ステップS1280e)。例えば“絞りマイナス0.5”という音声がステップS1280aで入力された場合、絞り値が修正前よりも0.5だけ減少した値に設定される。続いて、図3に示すステップS130に処理が進む。   The system controller 1001 corrects the read aperture value based on the keyword recognized in step S1280b, and stores the corrected aperture value in the temporary storage unit 1013 (step S1280e). For example, when the voice “aperture minus 0.5” is input in step S1280a, the aperture value is set to a value that is reduced by 0.5 from that before correction. Subsequently, the process proceeds to step S130 illustrated in FIG.

図6は、感度のシステムパラメータを修正するステップS1290の処理手順を示している。まず、システムパラメータの修正内容を示す音声が使用者によって音声入力部1010に入力され、音声入力部1010は、その音声に基づいた音声信号を出力する(ステップS1290a)。ステップS1290aでは、例えば“EV(いーぶい)プラス1”という音声が入力される。   FIG. 6 shows the processing procedure of step S1290 for correcting the sensitivity system parameter. First, a voice indicating the correction contents of the system parameter is input to the voice input unit 1010 by the user, and the voice input unit 1010 outputs a voice signal based on the voice (step S1290a). In step S1290a, for example, a voice “EV (Iibui) plus 1” is input.

続いて、音声認識処理部1011は、音声入力部1010からの音声信号に基づいて音声の内容(音声が示す文字列)を認識し(ステップS1290b)、さらに認識した文字列をキーワードに分解し、その情報を一時記憶部1013に格納する(ステップS1290c)。例えば“EVプラス1”という音声がステップS1290aで入力された場合、認識した文字列が“EV”、“プラス”、“1”という3つのキーワードに分解される。   Subsequently, the speech recognition processing unit 1011 recognizes the content of the speech (a character string indicated by the speech) based on the speech signal from the speech input unit 1010 (step S1290b), further decomposes the recognized character string into keywords, The information is stored in the temporary storage unit 1013 (step S1290c). For example, when the voice “EV plus 1” is input in step S1290a, the recognized character string is decomposed into three keywords “EV”, “plus”, and “1”.

続いて、システムコントローラ1001は、ステップS1290bで認識されたキーワードを一時記憶部1013から読み出し、キーワードに“EV”が含まれることからCCD1003の感度を修正すると判断し、シーンプログラムまたはプリセットプログラムに設定されている感度を一時記憶部1013から読み出す(ステップS1290d)。   Subsequently, the system controller 1001 reads the keyword recognized in step S1290b from the temporary storage unit 1013, determines that the sensitivity of the CCD 1003 is to be corrected because “EV” is included in the keyword, and is set in the scene program or preset program. Is read from the temporary storage unit 1013 (step S1290d).

システムコントローラ1001は、読み出した感度を、ステップS1290bで認識されたキーワードに基づいて修正し、修正後の感度を一時記憶部1013に格納する(ステップS1290e)。例えば“EVプラス1”という音声がステップS1290aで入力された場合、感度が修正前よりも1だけ増加した値に設定される。続いて、図3に示すステップS130に処理が進む。   The system controller 1001 corrects the read sensitivity based on the keyword recognized in step S1290b, and stores the corrected sensitivity in the temporary storage unit 1013 (step S1290e). For example, when the voice “EV plus 1” is input in step S1290a, the sensitivity is set to a value increased by 1 from before correction. Subsequently, the process proceeds to step S130 illustrated in FIG.

図7は、フラッシュ1017のシステムパラメータを修正するステップS1300の処理手順を示している。まず、システムパラメータの修正内容を示す音声が使用者によって音声入力部1010に入力され、音声入力部1010は、その音声に基づいた音声信号を出力する(ステップS1300a)。ステップS1300aでは、例えば“EVプラス1”という音声が入力される。   FIG. 7 shows the processing procedure of step S1300 for correcting the system parameters of the flash 1017. First, a voice indicating the correction contents of the system parameter is input to the voice input unit 1010 by the user, and the voice input unit 1010 outputs a voice signal based on the voice (step S1300a). In step S1300a, for example, a voice “EV plus 1” is input.

続いて、音声認識処理部1011は、音声入力部1010からの音声信号に基づいて音声の内容(音声が示す文字列)を認識し(ステップS1300b)、さらに認識した文字列をキーワードに分解し、その情報を一時記憶部1013に格納する(ステップS1300c)。例えば“EVプラス1”という音声がステップS1300aで入力された場合、認識した文字列が“EV”、“プラス”、“1”という3つのキーワードに分解される。   Subsequently, the voice recognition processing unit 1011 recognizes the content of the voice (character string indicated by the voice) based on the voice signal from the voice input unit 1010 (step S1300b), further decomposes the recognized character string into keywords, The information is stored in the temporary storage unit 1013 (step S1300c). For example, when the voice “EV plus 1” is input in step S1300a, the recognized character string is decomposed into three keywords “EV”, “plus”, and “1”.

続いて、システムコントローラ1001は、ステップS1300bで認識されたキーワードを一時記憶部1013から読み出し、キーワードに“EV”が含まれることからフラッシュ1017の発光量を修正すると判断し、シーンプログラムまたはプリセットプログラムに設定されている発光量を一時記憶部1013から読み出す(ステップS1300d)。   Subsequently, the system controller 1001 reads the keyword recognized in step S1300b from the temporary storage unit 1013, determines that the flash light amount of the flash 1017 is to be corrected because “EV” is included in the keyword, and stores it in the scene program or preset program. The set light emission amount is read from the temporary storage unit 1013 (step S1300d).

システムコントローラ1001は、読み出した発光量を、ステップS1300bで認識されたキーワードに基づいて修正し、修正後の発光量を一時記憶部1013に格納する(ステップS1300e)。例えば“EVプラス1”という音声がステップS1300aで入力された場合、発光量が修正前よりも1だけ増加した値に設定される。続いて、図3に示すステップS130に処理が進む。   The system controller 1001 corrects the read light emission amount based on the keyword recognized in step S1300b, and stores the corrected light emission amount in the temporary storage unit 1013 (step S1300e). For example, when the voice “EV plus 1” is input in step S1300a, the light emission amount is set to a value increased by 1 from that before correction. Subsequently, the process proceeds to step S130 illustrated in FIG.

図8は、画像処理のシステムパラメータを修正するステップS1310の処理手順を示している。まず、システムパラメータの修正内容を示す音声が使用者によって音声入力部1010に入力され、音声入力部1010は、その音声に基づいた音声信号を出力する(ステップS1310a)。ステップS1310aでは、例えば“フィルタノイズ強め”という音声が入力される。   FIG. 8 shows the processing procedure of step S1310 for correcting the image processing system parameters. First, a voice indicating the correction contents of the system parameter is input to the voice input unit 1010 by the user, and the voice input unit 1010 outputs a voice signal based on the voice (step S1310a). In step S1310a, for example, a voice “strong filter noise” is input.

続いて、音声認識処理部1011は、音声入力部1010からの音声信号に基づいて音声の内容(音声が示す文字列)を認識し(ステップS1310b)、さらに認識した文字列をキーワードに分解し、その情報を一時記憶部1013に格納する(ステップS1310c)。例えば“フィルタノイズ強め”という音声がステップS1300aで入力された場合、認識した文字列が“フィルタ”、“ノイズ”、“強め”という3つのキーワードに分解される。   Subsequently, the voice recognition processing unit 1011 recognizes the content of the voice (character string indicated by the voice) based on the voice signal from the voice input unit 1010 (step S1310b), further decomposes the recognized character string into keywords, The information is stored in the temporary storage unit 1013 (step S1310c). For example, when a voice “filter noise stronger” is input in step S1300a, the recognized character string is decomposed into three keywords “filter”, “noise”, and “strong”.

続いて、システムコントローラ1001は、ステップS1310bで認識されたキーワードを一時記憶部1013から読み出し、キーワードに“フィルタ”と“ノイズ”が含まれることからノイズフィルタの強度を修正すると判断し、シーンプログラムまたはプリセットプログラムに設定されているノイズフィルタの強度を一時記憶部1013から読み出す(ステップS1310d)。   Subsequently, the system controller 1001 reads the keyword recognized in step S1310b from the temporary storage unit 1013, determines that the keyword includes “filter” and “noise”, and determines that the strength of the noise filter is to be corrected. The strength of the noise filter set in the preset program is read from the temporary storage unit 1013 (step S1310d).

システムコントローラ1001は、読み出したノイズフィルタの強度を、ステップS1310bで認識されたキーワードに基づいて修正し、修正後のノイズフィルタの強度を一時記憶部1013に格納する(ステップS1310e)。例えば“フィルタノイズ強め”という音声がステップS1310aで入力された場合、修正前よりもフィルタ処理の効果を強めるようにノイズフィルタの強度が設定される。続いて、図3に示すステップS130に処理が進む。   The system controller 1001 corrects the read noise filter strength based on the keyword recognized in step S1310b, and stores the corrected noise filter strength in the temporary storage unit 1013 (step S1310e). For example, when the voice “filter noise is stronger” is input in step S1310a, the strength of the noise filter is set so as to enhance the effect of the filter processing than before correction. Subsequently, the process proceeds to step S130 illustrated in FIG.

図3〜図8に示した処理が実行されると、使用者の属性とシーンプログラムまたはプリセットプログラムとの対応関係が記憶メディア1008に登録されたことになる。以下、図9を参照しながら、撮影時のカメラシステム1aの動作を説明する。まず、シーンプログラムまたはプリセットプログラムを指定する音声が使用者によって音声入力部1010に入力され、音声入力部1010は、その音声に基づいた音声信号を出力する(ステップS200)。ステップS200では、例えば“プリセット1”という音声が入力される。   When the processing shown in FIGS. 3 to 8 is executed, the correspondence between the user attribute and the scene program or preset program is registered in the storage medium 1008. Hereinafter, the operation of the camera system 1a during photographing will be described with reference to FIG. First, a sound specifying a scene program or a preset program is input to the sound input unit 1010 by the user, and the sound input unit 1010 outputs a sound signal based on the sound (step S200). In step S200, for example, a voice “Preset 1” is input.

続いて、音声認識処理部1011は、音声入力部1010からの音声信号に基づいて音声パターンおよび音声の内容(音声が示す文字列)を認識し(ステップS210)、さらに認識した文字列をキーワードに分解し、その情報を一時記憶部1013に格納する(ステップS220)。   Subsequently, the speech recognition processing unit 1011 recognizes the speech pattern and the content of the speech (a character string indicated by the speech) based on the speech signal from the speech input unit 1010 (step S210), and further uses the recognized character string as a keyword. The information is decomposed and the information is stored in the temporary storage unit 1013 (step S220).

続いて、システムコントローラ1001は記憶メディア1008から使用者属性情報を読み出し、一時記憶部1013に格納する。使用者識別部1012は、ステップS210で一時記憶部1013に格納した音声パターンを読み出し、使用者属性情報が示す音声パターンと照合し、使用者を識別する(ステップS230)。ステップS200で入力された音声から得られた音声パターンと使用者属性情報が示す音声パターンとが一致した場合、その使用者属性情報によって識別される使用者が撮影を行おうとしていることが分かる。   Subsequently, the system controller 1001 reads the user attribute information from the storage medium 1008 and stores it in the temporary storage unit 1013. The user identifying unit 1012 reads the voice pattern stored in the temporary storage unit 1013 in step S210, compares it with the voice pattern indicated by the user attribute information, and identifies the user (step S230). If the voice pattern obtained from the voice input in step S200 matches the voice pattern indicated by the user attribute information, it can be seen that the user identified by the user attribute information is about to take a picture.

使用者識別部1012は、ステップS230で識別した使用者に対応した使用者属性情報をシステムコントローラ1001に通知する。また、音声認識処理部1011は、シーンプログラムまたはプリセットプログラムを指定する情報をシステムコントローラ1001に通知する。システムコントローラ1001は、使用者識別部1012から通知された使用者属性情報と関連付けられているシーンプログラムまたはプリセットプログラムのうち、ステップS220で認識されたキーワードに対応したものを記憶メディア1008から読み出し、一時記憶部1013に格納する(ステップS240)。例えば、使用者AがステップS200で“プリセット1”という音声を入力した場合、使用者Aの使用者属性情報と関連付けられている番号1のプリセットプログラムが読み出される。   The user identification unit 1012 notifies the system controller 1001 of user attribute information corresponding to the user identified in step S230. Further, the voice recognition processing unit 1011 notifies the system controller 1001 of information specifying a scene program or a preset program. The system controller 1001 reads from the storage medium 1008 the scene program or preset program associated with the user attribute information notified from the user identifying unit 1012 and corresponding to the keyword recognized in step S220, and temporarily stores it. Store in the storage unit 1013 (step S240). For example, when the user A inputs a voice “preset 1” in step S200, the preset program number 1 associated with the user attribute information of the user A is read.

続いて、システムコントローラ1001は、ステップS240で一時記憶部1013に格納したシーンプログラムまたはプリセットプログラムを読み出し、それに設定されているシステムパラメータをカメラシステム1a内の各部に設定する(ステップS250)。これにより、ステップS200で音声入力を行った使用者に対応したシーンプログラムまたはプリセットプログラムのシステムパラメータが設定される。続いて、撮影が行われる(ステップS260)。この動作は従来と同様であるので、説明を省略する。   Subsequently, the system controller 1001 reads the scene program or preset program stored in the temporary storage unit 1013 in step S240, and sets the system parameters set thereto in each unit in the camera system 1a (step S250). As a result, the system parameters of the scene program or preset program corresponding to the user who performed the voice input in step S200 are set. Subsequently, photographing is performed (step S260). Since this operation is the same as the conventional one, the description thereof is omitted.

上述したカメラシステム1aの動作には各種の変形を施すことが可能である。例えば図3に示した処理手順では、システムパラメータを修正するステップS120が含まれているが、必ずしもシステムパラメータを修正しなくてもよい。また、図3に示した処理手順に従って使用者の属性とシーンプログラムまたはプリセットプログラムとの対応関係を登録した後でも、適宜、システムパラメータを修正できるようにしてもよい。   Various modifications can be made to the operation of the camera system 1a described above. For example, the processing procedure shown in FIG. 3 includes step S120 for correcting the system parameter, but the system parameter does not necessarily have to be corrected. Further, the system parameters may be appropriately modified even after the correspondence between the user attributes and the scene program or the preset program is registered according to the processing procedure shown in FIG.

上述したように、本実施形態によれば、予め用意されたシステムパラメータのうち、使用者の属性に対応したシステムパラメータがカメラシステム1aに自動的に設定されるので、使用者毎にシステムパラメータを簡易に設定することができる。また、図3のステップS120において、使用者がシステムパラメータの値を入力することが可能であるので、使用者の好みに応じたシステムパラメータを設定することができる。   As described above, according to the present embodiment, among the system parameters prepared in advance, the system parameters corresponding to the user attributes are automatically set in the camera system 1a, so that the system parameters are set for each user. It can be set easily. Further, in step S120 of FIG. 3, since the user can input the value of the system parameter, the system parameter can be set according to the user's preference.

また、図5〜図8に示したように、使用者が音声入力によりシステムパラメータの値を入力することが可能であるので、操作キー1015の操作によりシステムパラメータの値を入力するよりも簡易にシステムパラメータを設定することができる。   Also, as shown in FIGS. 5 to 8, since the user can input the value of the system parameter by voice input, it is simpler than inputting the value of the system parameter by operating the operation key 1015. System parameters can be set.

(第2の実施形態)
次に、本発明の第2の実施形態を説明する。図10は、本実施形態によるカメラシステム1bの構成を示している。このカメラシステム1bでは、図1に示したカメラシステム1aと比較して、通信部1019が追加されている。通信部1019は外部のサーバ2と通信を行う。この通信は有線通信と無線通信のどちらでもよい。サーバ2はシーンプログラムおよびプリセットプログラムを記憶している。本実施形態ではサーバ2が設けられているが、シーンプログラムおよびプリセットプログラムを記憶するのはサーバに限らず、記憶装置を備えたコンピュータ装置であれば何でもよい。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. FIG. 10 shows a configuration of the camera system 1b according to the present embodiment. In the camera system 1b, a communication unit 1019 is added as compared with the camera system 1a shown in FIG. The communication unit 1019 communicates with the external server 2. This communication may be either wired communication or wireless communication. The server 2 stores a scene program and a preset program. Although the server 2 is provided in the present embodiment, the scene program and the preset program are not limited to being stored in the server, and any computer apparatus provided with a storage device may be used.

図11は、カメラシステム1bの本体を上から見た外観を示している。図11に示すように、通信部1019が有するアンテナ1019aがカメラシステム1bの本体の上面に設けられている。   FIG. 11 shows the external appearance of the camera system 1b viewed from above. As shown in FIG. 11, an antenna 1019a included in the communication unit 1019 is provided on the upper surface of the main body of the camera system 1b.

カメラシステム1bは、サーバ2と通信を行い、必要なシーンプログラムおよびプリセットプログラムを取得する。例えば使用者の属性とシーンプログラムまたはプリセットプログラムとの対応関係を登録する際には、通信部1019は、使用者によって指定されたシーンプログラムまたはプリセットプログラムの情報をサーバ2へ送信する。サーバ2は、受信した情報が示すシーンプログラムまたはプリセットプログラムをカメラシステム1bへ送信する。通信部1019によって受信されたシーンプログラムまたはプリセットプログラムは一時記憶部1013に格納される。   The camera system 1b communicates with the server 2 and acquires necessary scene programs and preset programs. For example, when registering the correspondence between a user attribute and a scene program or preset program, the communication unit 1019 transmits information on the scene program or preset program designated by the user to the server 2. The server 2 transmits the scene program or preset program indicated by the received information to the camera system 1b. The scene program or preset program received by the communication unit 1019 is stored in the temporary storage unit 1013.

システムパラメータの修正が行われた後、シーンプログラムまたはプリセットプログラムは使用者属性情報と共に記憶メディア1008に格納される。あるいは、システムパラメータの修正を行ったシーンプログラムまたはプリセットプログラムをサーバ2へ送信し、サーバ2に記憶させ、撮影時にそのシーンプログラムまたはプリセットプログラムを再度サーバ2から受信するようにしてもよい。システムパラメータの設定に関するカメラシステム1bのその他の動作はカメラシステム1aと同様である。   After the system parameters are corrected, the scene program or preset program is stored in the storage medium 1008 together with user attribute information. Alternatively, the scene program or preset program in which the system parameters are corrected may be transmitted to the server 2 and stored in the server 2, and the scene program or preset program may be received from the server 2 again at the time of shooting. Other operations of the camera system 1b regarding the setting of the system parameters are the same as those of the camera system 1a.

上述したように、本実施形態によれば、第1の実施形態と同様に、使用者毎にシステムパラメータを簡易に設定することができる。また、システムパラメータを外部の装置に記憶させ、適宜、必要なシステムパラメータを外部の装置から取得するので、カメラシステム1bの記憶容量を節約することができる。   As described above, according to the present embodiment, the system parameters can be easily set for each user as in the first embodiment. In addition, since the system parameters are stored in an external device and necessary system parameters are acquired from the external device as appropriate, the storage capacity of the camera system 1b can be saved.

(第3の実施形態)
次に、本発明の第3の実施形態を説明する。図12は、本実施形態によるカメラシステム1cの構成を示している。このカメラシステム1cでは、図1に示したカメラシステム1aと比較して、音声入力部1010および音声認識処理部1011に代えて、アイピース光学系1020、画像生成部1021、および画像認識処理部1022が設けられている。第1の実施形態によるカメラシステム1aおよび第2の実施形態によるカメラシステム1bは使用者の音声に基づいて使用者の属性を識別するが、本実施形態によるカメラシステム1cは使用者の目の虹彩パターンに基づいて使用者の属性を識別する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. FIG. 12 shows the configuration of the camera system 1c according to this embodiment. In this camera system 1c, an eyepiece optical system 1020, an image generation unit 1021, and an image recognition processing unit 1022 are used instead of the voice input unit 1010 and the voice recognition processing unit 1011 as compared with the camera system 1a illustrated in FIG. Is provided. The camera system 1a according to the first embodiment and the camera system 1b according to the second embodiment identify the user's attributes based on the user's voice, but the camera system 1c according to the present embodiment uses the iris of the user's eyes. Identify user attributes based on patterns.

アイピース光学系1020は使用者の目からの光を光学的に結像し、光学像を形成する。図13に示すように、アイピース光学系1020はカメラシステム1cの本体の背面に設けられている。画像生成部1021は、CCD等の撮像素子を備えており、その撮像面に結像された光学像を電気信号に変換し、使用者の画像データを生成する。画像認識処理部1022は、画像生成部1021によって生成された画像データに基づいて使用者の虹彩パターンを認識し、使用者属性情報として一時記憶部1013に格納する。   The eyepiece optical system 1020 optically forms light from the user's eyes to form an optical image. As shown in FIG. 13, the eyepiece optical system 1020 is provided on the back surface of the main body of the camera system 1c. The image generation unit 1021 includes an imaging element such as a CCD, converts an optical image formed on the imaging surface into an electrical signal, and generates user image data. The image recognition processing unit 1022 recognizes the user's iris pattern based on the image data generated by the image generation unit 1021 and stores it in the temporary storage unit 1013 as user attribute information.

カメラシステム1cで扱う使用者属性情報には、カメラシステム1aで扱う使用者属性情報に含まれる音声パターンに代えて虹彩パターンが含まれる。このように、使用者属性情報の内容がカメラシステム1aと異なるが、システムパラメータの設定に関するカメラシステム1cの動作はカメラシステム1aと同様である。   The user attribute information handled by the camera system 1c includes an iris pattern instead of the voice pattern contained in the user attribute information handled by the camera system 1a. Thus, although the content of the user attribute information is different from that of the camera system 1a, the operation of the camera system 1c regarding the setting of the system parameters is the same as that of the camera system 1a.

上述したように、本実施形態によれば、第1の実施形態と同様に、使用者毎にシステムパラメータを簡易に設定することができる。   As described above, according to the present embodiment, the system parameters can be easily set for each user as in the first embodiment.

以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。例えば上記の実施形態においては、使用者の音声パターンや虹彩パターンを認識して使用者の属性を識別しているが、使用者の指紋パターンや顔画像を認識して使用者の属性を識別してもよい。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiments, and includes design changes and the like without departing from the gist of the present invention. . For example, in the above embodiment, the user's attributes are identified by recognizing the user's voice pattern or iris pattern, but the user's attributes are identified by recognizing the user's fingerprint pattern or face image. May be.

本発明の第1の実施形態によるカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system by the 1st Embodiment of this invention. 本発明の第1の実施形態によるカメラシステムの外観図である。1 is an external view of a camera system according to a first embodiment of the present invention. 本発明の第1の実施形態によるカメラシステムの動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of operation | movement of the camera system by the 1st Embodiment of this invention. 本発明の第1の実施形態によるカメラシステムの動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of operation | movement of the camera system by the 1st Embodiment of this invention. 本発明の第1の実施形態によるカメラシステムの動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of operation | movement of the camera system by the 1st Embodiment of this invention. 本発明の第1の実施形態によるカメラシステムの動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of operation | movement of the camera system by the 1st Embodiment of this invention. 本発明の第1の実施形態によるカメラシステムの動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of operation | movement of the camera system by the 1st Embodiment of this invention. 本発明の第1の実施形態によるカメラシステムの動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of operation | movement of the camera system by the 1st Embodiment of this invention. 本発明の第1の実施形態によるカメラシステムの動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of operation | movement of the camera system by the 1st Embodiment of this invention. 本発明の第2の実施形態によるカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラシステムの外観図である。It is an external view of the camera system by the 2nd Embodiment of this invention. 本発明の第3の実施形態によるカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system by the 3rd Embodiment of this invention. 本発明の第3の実施形態によるカメラシステムの外観図である。It is an external view of the camera system by the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1a,1b,1c・・・カメラシステム、2・・・サーバ、1001・・・システムコントローラ、1002・・・レンズ、1003・・・CCD、1004・・・撮像回路、1005・・・A/D変換回路、1006・・・信号処理回路、1007・・・圧縮回路、1008・・・記憶メディア、1009・・・表示部、1010・・・音声入力部、1011・・・音声認識処理部、1012・・・使用者識別部、1013・・・一時記憶部、1014・・・レリーズボタン、1015・・・操作キー、1016・・・モード選択ダイヤル、1017・・・フラッシュ、1018・・・測光センサ、1019・・・通信部、1019a・・・アンテナ、1020・・・アイピース光学系、1021・・・画像生成部、1022・・・画像認識処理部   DESCRIPTION OF SYMBOLS 1a, 1b, 1c ... Camera system, 2 ... Server, 1001 ... System controller, 1002 ... Lens, 1003 ... CCD, 1004 ... Imaging circuit, 1005 ... A / D Conversion circuit, 1006... Signal processing circuit, 1007... Compression circuit, 1008... Storage medium, 1009... Display unit, 1010. User identification unit 1013 Temporary storage unit 1014 Release button 1015 Operation key 1016 Mode selection dial 1017 Flash 1018 Photometric sensor DESCRIPTION OF SYMBOLS 1019 ... Communication part, 1019a ... Antenna, 1020 ... Eyepiece optical system, 1021 ... Image generation part, 1022 ... Image recognition Processing unit

Claims (5)

光学像を結像する光学系と、
前記光学系によって結像された光学像を電気信号に変換する撮像手段と、
使用者の属性を検出する属性検出手段と、
所定の機能の実行に係るパラメータと前記使用者の属性を関連付けて記憶する記憶手段と、
前記属性検出手段によって検出された前記使用者の属性に対応した前記パラメータを前記記憶手段から読み出して設定する設定手段と、
を備えたことを特徴とする撮像装置。
An optical system for forming an optical image;
Imaging means for converting an optical image formed by the optical system into an electrical signal;
Attribute detection means for detecting user attributes;
Storage means for storing parameters relating to execution of a predetermined function and the attributes of the user in association with each other;
A setting unit that reads and sets the parameter corresponding to the attribute of the user detected by the attribute detection unit from the storage unit;
An imaging apparatus comprising:
前記使用者が前記パラメータを入力するパラメータ入力手段をさらに備え、
前記記憶手段は、前記パラメータ入力手段に入力された前記パラメータと、前記属性検出手段によって検出された前記使用者の属性とを関連付けて記憶する
ことを特徴とする請求項1に記載の撮像装置。
The apparatus further comprises parameter input means for the user to input the parameter,
The imaging apparatus according to claim 1, wherein the storage unit stores the parameter input to the parameter input unit and the attribute of the user detected by the attribute detection unit in association with each other.
前記属性検出手段は、
前記使用者が音声を入力する音声入力手段と、
前記音声入力手段に入力された前記使用者の音声に基づいて前記使用者の属性を識別する属性識別手段とを有する
ことを特徴とする請求項1または請求項2に記載の撮像装置。
The attribute detection means includes
Voice input means for the user to input voice;
The imaging apparatus according to claim 1, further comprising: an attribute identification unit that identifies an attribute of the user based on the voice of the user input to the voice input unit.
前記属性検出手段は、
前記使用者の画像を取得する画像取得手段と、
前記画像取得手段によって取得された前記使用者の画像に基づいて前記使用者の属性を識別する属性識別手段とを有する
ことを特徴とする請求項1または請求項2に記載の撮像装置。
The attribute detection means includes
Image acquisition means for acquiring an image of the user;
The imaging apparatus according to claim 1, further comprising: an attribute identification unit that identifies an attribute of the user based on the image of the user acquired by the image acquisition unit.
前記パラメータ入力手段は、
前記使用者が音声を入力する音声入力手段と、
前記音声入力手段に入力された前記使用者の音声に基づいて前記パラメータを認識するパラメータ認識手段とを有する
ことを特徴とする請求項2に記載の撮像装置。
The parameter input means includes
Voice input means for the user to input voice;
The imaging apparatus according to claim 2, further comprising: a parameter recognition unit that recognizes the parameter based on the user's voice input to the voice input unit.
JP2007231516A 2007-09-06 2007-09-06 Imaging apparatus Withdrawn JP2009065450A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007231516A JP2009065450A (en) 2007-09-06 2007-09-06 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007231516A JP2009065450A (en) 2007-09-06 2007-09-06 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009065450A true JP2009065450A (en) 2009-03-26

Family

ID=40559626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007231516A Withdrawn JP2009065450A (en) 2007-09-06 2007-09-06 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2009065450A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110232017A1 (en) * 2010-03-25 2011-09-29 Chien-Hsiung Hung Cleaning device
CN106454107A (en) * 2016-10-28 2017-02-22 努比亚技术有限公司 Photographing terminal and photographing parameter setting method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110232017A1 (en) * 2010-03-25 2011-09-29 Chien-Hsiung Hung Cleaning device
CN106454107A (en) * 2016-10-28 2017-02-22 努比亚技术有限公司 Photographing terminal and photographing parameter setting method

Similar Documents

Publication Publication Date Title
JP5136669B2 (en) Image processing apparatus, image processing method, and program
JP5281878B2 (en) IMAGING DEVICE, LIGHTING PROCESSING DEVICE, LIGHTING PROCESSING METHOD, AND LIGHTING PROCESSING PROGRAM
JP4911165B2 (en) Imaging apparatus, face detection method, and program
US20040119851A1 (en) Face recognition method, face recognition apparatus, face extraction method, and image pickup apparatus
US8441568B2 (en) Image apparatus prioritizing displayed attribute information for recognized people
JP2007150601A (en) Electronic camera
KR20080081859A (en) Imaging apparatus and control method thereof
JP2010171797A (en) Imaging apparatus and program
US20110273604A1 (en) Imaging apparatus
JP2007281647A (en) Electronic camera and image processing apparatus
JP5370555B2 (en) Imaging apparatus, imaging method, and program
JP4765909B2 (en) Imaging apparatus, group member determination method and program
JP5044472B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4772756B2 (en) Imaging apparatus and imaging program
JP2009065450A (en) Imaging apparatus
JP2008219450A (en) Imaging device and control method thereof
JP2006128793A (en) Image pickup device and control method thereof
JP3873884B2 (en) Imaging apparatus and imaging program
JP2003060979A (en) Electronic camera
JP5261769B2 (en) Imaging apparatus and group photo shooting support program
JP2004112487A (en) Photographing conditions determining apparatus
JP2013141104A (en) Imaging apparatus
JP2010171841A (en) Imaging apparatus
JP2009017184A (en) Digital camera, photographing method, and photographing program
JP5287452B2 (en) Imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101207