JP4743097B2 - Camera and image search program - Google Patents

Camera and image search program Download PDF

Info

Publication number
JP4743097B2
JP4743097B2 JP2006327800A JP2006327800A JP4743097B2 JP 4743097 B2 JP4743097 B2 JP 4743097B2 JP 2006327800 A JP2006327800 A JP 2006327800A JP 2006327800 A JP2006327800 A JP 2006327800A JP 4743097 B2 JP4743097 B2 JP 4743097B2
Authority
JP
Japan
Prior art keywords
unit
camera
image
shooting
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006327800A
Other languages
Japanese (ja)
Other versions
JP2008141635A (en
Inventor
泰 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006327800A priority Critical patent/JP4743097B2/en
Publication of JP2008141635A publication Critical patent/JP2008141635A/en
Application granted granted Critical
Publication of JP4743097B2 publication Critical patent/JP4743097B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、カメラ、および画像検索プログラムに関する。   The present invention relates to a camera and an image search program.

従来、撮影画像を画像認識した結果と、被写体が動体であるか否かや、撮影倍率、または被写体距離などに基づいて、カメラの撮影パラメータを自動的に決定するものが知られている(例えば、特許文献1)。
特開2003−344891号公報
2. Description of the Related Art Conventionally, it is known to automatically determine camera shooting parameters based on the result of image recognition of a shot image, whether the subject is a moving object, the shooting magnification, the subject distance, or the like (for example, Patent Document 1).
JP 2003-344891 A

ところで、上述した従来技術では、画像認識に要する処理の負荷が大きくならざるを得ないという問題点があった。
そこで、本発明では、簡易な構成で適切に撮影パラメータを決定する技術を提供することを目的とする。
However, the above-described conventional technique has a problem in that the processing load required for image recognition must be increased.
Therefore, an object of the present invention is to provide a technique for appropriately determining shooting parameters with a simple configuration.

《1》 本発明のカメラは、設定部、センサ部、記憶部、検索部、パラメータ決定部、および撮影部を備える。
設定部は、カメラの機能を設定する。
センサ部は、被写体の状態またはカメラの動作状態を検出する。
記憶部は、設定部で設定される機能およびセンサ部の検出結果に対応する情報の組み合わせを被写体の種別ごとに予め分類して記憶する。
検索部は、設定部で設定される機能およびセンサ部の検出結果に相当する組み合わせを記憶部から検索する。
パラメータ決定部は、検索部によって検索された組み合わせに基づいて、カメラの撮影パラメータを決定する。
撮影部は、パラメータ決定部で決定された撮影パラメータに従って撮影を行う。
《2》 なお好ましくは、パラメータ決定部は、相当する組み合わせが複数存在する場合、複数の組み合わせのそれぞれに対応する撮影パラメータに基づいて、第2の撮影パラメータを作成する。
《3》 また好ましくは、相当する組み合わせに対応する属性情報を、撮影部で撮影された撮影画像に対応付けて記録する記録処理部を備える。
《4》 なお好ましくは、属性情報に基づいて、記録処理部で記録された撮影画像を検索する画像検索部を備える。
《5》 本発明の画像検索プログラムは、コンピュータを、画像取得部、入力部、画像検索部として機能させるためのプログラムである。
画像取得部は、《3》または《4》に記載のカメラに記録された撮影画像および属性情報を取り込む。
入力部は、属性情報の入力を受け付ける。
画像検索部は、入力された属性情報に対応する撮影画像を検索する。
<< 1 >> The camera of the present invention includes a setting unit, a sensor unit, a storage unit, a search unit, a parameter determination unit, and a photographing unit.
The setting unit sets camera functions.
The sensor unit detects the state of the subject or the operating state of the camera.
The storage unit classifies and stores combinations of information corresponding to the function set by the setting unit and the detection result of the sensor unit for each type of subject.
The search unit searches the storage unit for a combination corresponding to the function set by the setting unit and the detection result of the sensor unit.
The parameter determination unit determines a shooting parameter of the camera based on the combination searched by the search unit.
The photographing unit performs photographing according to the photographing parameter determined by the parameter determining unit.
<< 2 >> Preferably, when there are a plurality of corresponding combinations, the parameter determination unit creates the second imaging parameter based on the imaging parameters corresponding to each of the plurality of combinations.
<< 3 >> Preferably, a recording processing unit that records attribute information corresponding to a corresponding combination in association with a photographed image photographed by the photographing unit is provided.
<< 4 >> Preferably, an image search unit for searching for a captured image recorded by the recording processing unit based on the attribute information is provided.
<< 5 >> The image search program of the present invention is a program for causing a computer to function as an image acquisition unit, an input unit, and an image search unit.
The image acquisition unit captures the captured image and attribute information recorded in the camera described in << 3 >> or << 4 >>.
The input unit accepts input of attribute information.
The image search unit searches for a captured image corresponding to the input attribute information.

本発明では、カメラに設定された機能と、被写体の状態またはカメラの動作状態の検出結果とに基づいて、撮影パラメータを決定する。一般に、カメラの機能の設定状態には、ユーザ自身の被写体種別に対する撮影意図が反映される。一方、センサ情報からは被写体種別に関する客観的な情報が得られる。このため、画像認識のような負荷のかかる処理を要することなく、適切に撮影パラメータを決定することが可能になる。
その結果、多様な撮影シーンを判別して撮影パラメータを決定することが可能になる。
In the present invention, the shooting parameter is determined based on the function set in the camera and the detection result of the state of the subject or the operating state of the camera. In general, the setting state of the camera function reflects the user's intention to shoot the subject type. On the other hand, objective information regarding the subject type is obtained from the sensor information. For this reason, it is possible to appropriately determine the shooting parameters without requiring a load-intensive process such as image recognition.
As a result, it is possible to determine various shooting scenes and determine shooting parameters.

《実施形態の構成》
図1は、本実施形態の構成を示すブロック図である。
図1において、カメラ11は、ユーザーの操作入力に応じて機能を設定する設定部12を備える。例えば、この設定部12では、下記機能が設定可能である。
(1)AFモード…一旦合焦した後は焦点制御を禁止(合焦ロック)するAF−Sモードと、合焦後も焦点制御を継続するAF−Cモードなどから選択できる。
(2)露出モード…プログラム露出モード、絞り優先露出モード、シャッタースピード優先モードなどから選択できる。
(3)測光モード…分割測光モード、中央部重点測光モード、スポット測光モードなどから選択できる。
(4)ドライブモード…1コマ撮影モード、連続撮影モードなどから選択できる。
<< Configuration of Embodiment >>
FIG. 1 is a block diagram showing the configuration of the present embodiment.
In FIG. 1, the camera 11 includes a setting unit 12 that sets a function in accordance with a user operation input. For example, the setting unit 12 can set the following functions.
(1) AF mode: It can be selected from AF-S mode in which focus control is prohibited (focus lock) once focused, AF-C mode in which focus control is continued after focusing, and the like.
(2) Exposure mode: Selectable from program exposure mode, aperture priority exposure mode, shutter speed priority mode, etc.
(3) Metering mode: Selectable from split metering mode, center-weighted metering mode, spot metering mode, etc.
(4) Drive mode: Selectable from single frame shooting mode, continuous shooting mode, etc.

さらに、カメラ11は、被写体の状態やカメラ11の動作状態を検出するセンサ部14を備える。例えば、このセンサ部14は、下記のセンサ群から構成される。
(a)測光センサ14a…被写体を分割測光/測色するセンサ
(b)温度センサ14b…環境温度を検出するセンサ
(c)加速度センサ14c…カメラ11に作用する加速度を検出する。また、方位やカメラ姿勢を検出する。
(d)測距センサ14d…被写体までの距離、またはデフォーカス量を検出する。
(e)距離エンコーダ14e…撮影レンズのピントリングの回転角度や焦点調節レンズのレンズ位置に基づいて、合焦位置までの距離を検出する。
(f)ズームエンコーダ14f…撮影レンズのズームリングの回転角度やズーム調節レンズのレンズ位置に基づいて、撮影レンズの焦点距離を検出する。
(g)タイマー14g…日時計測により、日時、朝昼夜の違い、季節の違いなどを検出する。
Furthermore, the camera 11 includes a sensor unit 14 that detects the state of the subject and the operation state of the camera 11. For example, the sensor unit 14 includes the following sensor group.
(a) Photometric sensor 14a: Sensor for subjecting a subject to divided photometry / colorimetry
(b) Temperature sensor 14b: Sensor for detecting environmental temperature
(c) Acceleration sensor 14c... Acceleration acting on the camera 11 is detected. Also, the direction and camera posture are detected.
(d) Distance measuring sensor 14d: detects the distance to the subject or the defocus amount.
(e) Distance encoder 14e: The distance to the in-focus position is detected based on the rotation angle of the focus ring of the photographing lens and the lens position of the focus adjustment lens.
(f) Zoom encoder 14f... The focal length of the photographic lens is detected based on the rotation angle of the zoom ring of the photographic lens and the lens position of the zoom adjustment lens.
(g) Timer 14g... Date / time, morning / day / night difference, season difference, etc. are detected by date / time measurement.

また、カメラ11には、撮影シーンに対応する機能やセンサで検出される情報などの特徴量の組み合わせである撮影条件パターンファイル、および露出やオートフォーカスなどの各制御部を制御するための制御変数パターンファイルが予め登録された記憶部15が設けられる。その他、カメラ11には、マイクロプロセッサ16、撮影部17、記録処理部18、および入力部19も設けられる。なお、マイクロプロセッサ16は、検索部20、パラメータ決定部21、および画像検索部22の機能を備える。   The camera 11 also has a shooting condition pattern file that is a combination of features corresponding to a shooting scene and information detected by a sensor, and control variables for controlling each control unit such as exposure and autofocus. A storage unit 15 in which pattern files are registered in advance is provided. In addition, the camera 11 is also provided with a microprocessor 16, a photographing unit 17, a recording processing unit 18, and an input unit 19. The microprocessor 16 includes functions of a search unit 20, a parameter determination unit 21, and an image search unit 22.

《撮影条件パターンファイルの作成手順》
記憶部15に記憶される撮影条件パターンファイルは、カメラ設計者またはカメラユーザーによって予め作成される。以下、この作成手順について説明する。
<Creation procedure of shooting condition pattern file>
The photographing condition pattern file stored in the storage unit 15 is created in advance by a camera designer or a camera user. Hereinafter, this creation procedure will be described.

(手順1)まず、種々の撮影シーンに対して設定部12に設定される機能に関する情報と、センサ部14から得られる出力情報とを取得する。これらの情報の種類は表1に示すようなものである。

Figure 0004743097
(Procedure 1) First, information regarding functions set in the setting unit 12 for various shooting scenes and output information obtained from the sensor unit 14 are acquired. These types of information are as shown in Table 1.
Figure 0004743097

(手順2)これらの情報のうち、撮影シーンを象徴する機能やセンサの出力情報を特徴量として抽出し、個々の撮影シーンを示す被写体種別ごとに記憶する。 (Procedure 2) Among these pieces of information, the function symbolizing the shooting scene and the output information of the sensor are extracted as feature quantities and stored for each subject type indicating each shooting scene.

(手順3)同種の被写体から得られた情報群やその特徴量などから、類似性の高い項目や条件範囲を抽出して撮影条件パターンファイルを作成する。 (Procedure 3) An imaging condition pattern file is created by extracting highly similar items and condition ranges from information groups obtained from the same type of subjects and their feature quantities.

(手順4)求めた撮影条件パターンファイルを、被写体種別(撮影シーン)ごとに対応付けて、記憶部15に登録する。 (Procedure 4) The obtained shooting condition pattern file is registered in the storage unit 15 in association with each subject type (shooting scene).

《制御変数パターンファイルの作成手順》
一方、記憶部15に記憶される制御変数パターンファイルも、カメラ設計者またはカメラユーザーによって予め作成される。以下、この作成手順について説明する。
《Procedure for creating control variable pattern file》
On the other hand, the control variable pattern file stored in the storage unit 15 is also created in advance by the camera designer or the camera user. Hereinafter, this creation procedure will be described.

(手順1)まず、種々の撮影シーンに対して、個々の撮影パラメータを変更しながら、カメラ11の撮影を行う。例えば、表2に示すような撮影パラメータについて変更する。

Figure 0004743097
(Procedure 1) First, the camera 11 shoots while changing individual shooting parameters for various shooting scenes. For example, the shooting parameters as shown in Table 2 are changed.
Figure 0004743097

(手順2)この撮影で得られた撮影画像の画質やカメラ動作の的確さを評価し、被写体種別(撮影シーン)ごとに適正な撮影パラメータを決定する。 (Procedure 2) The image quality of the captured image obtained by this shooting and the accuracy of the camera operation are evaluated, and appropriate shooting parameters are determined for each subject type (shooting scene).

(手順3)被写体種別(撮影シーン)ごとに決定した撮影パラメータを、記憶部15の制御変数パターンファイルに登録する。 (Procedure 3) The shooting parameters determined for each subject type (shooting scene) are registered in the control variable pattern file of the storage unit 15.

《撮影動作の説明》
図2は、カメラ11の撮影動作を説明する流れ図である。以下、この図2に示すステップ番号に沿って、この動作を説明する。
<Explanation of shooting operation>
FIG. 2 is a flowchart for explaining the photographing operation of the camera 11. Hereinafter, this operation will be described along the step numbers shown in FIG.

ステップS1: ユーザーは、撮影意図に応じて、カメラ11の機能(AFモード、露出モード、測光モード、またはドライブモードなど)を設定する操作を行う。設定部12は、この操作を受け付けて、カメラ11の機能を設定する。 Step S1: The user performs an operation to set the function of the camera 11 (AF mode, exposure mode, photometry mode, drive mode, etc.) according to the intention of shooting. The setting unit 12 accepts this operation and sets the function of the camera 11.

ステップS2: センサ部14は、各種のセンサ14a〜14gに基づいて、被写体の状態またはカメラの動作状態をセンサ情報として検出する。 Step S2: The sensor unit 14 detects the state of the subject or the operation state of the camera as sensor information based on the various sensors 14a to 14g.

ステップS3: 検索部20は、設定部12で設定された機能に関する情報、およびセンサ部14で得られるセンサ情報を取得する。検索部20は、この機能の設定状態およびセンサ情報の組み合わせを、記憶部15内の撮影条件パターンファイルに照合し、合致または類似する撮影条件パターンファイルを検索する。 Step S <b> 3: The search unit 20 acquires information related to the function set by the setting unit 12 and sensor information obtained by the sensor unit 14. The search unit 20 collates the combination of the setting state of the function and the sensor information with the shooting condition pattern file in the storage unit 15 and searches for a matching or similar shooting condition pattern file.

ステップS4: パラメータ決定部21は、検索された撮影条件パターンファイルに対応付けられる被写体種別を記憶部15から求める。パラメータ決定部21は、この被写体種別を記憶部15内の制御変数パターンファイルに照合し、対応する撮影パラメータを決定する。
例えば、夕日被写体の場合、露出制御が太陽の輝度の影響を受けて露出アンダーになる。そこで、露出制御に用いられる測光領域から太陽に対応する領域を除外するように撮影パラメータを設定する。また、オートホワイトバランス機能によって夕焼けの赤みを自動的に補正しないよう、高めの色温度に撮影パラメータを設定する。さらに、赤色の彩度を強調するように撮影パラメータを設定する。
また例えば、被写体の移動速度の変動が激しく、かつ移動速度の最大値が比較的低い場合、人間又は動物などの非動力による移動被写体と判定できる。この場合、焦点調節制御の感度アップや使用するAFエリアの領域拡大などの撮影パラメータを、非動力による移動被写体に合わせて設定する。
Step S4: The parameter determination unit 21 obtains the subject type associated with the searched shooting condition pattern file from the storage unit 15. The parameter determination unit 21 collates this subject type against the control variable pattern file in the storage unit 15 and determines the corresponding shooting parameter.
For example, in the case of a sunset subject, the exposure control is underexposed due to the influence of the brightness of the sun. Therefore, the imaging parameters are set so as to exclude the area corresponding to the sun from the photometric area used for exposure control. Also, shooting parameters are set to a higher color temperature so that the redness at sunset is not automatically corrected by the auto white balance function. Further, the shooting parameters are set so as to emphasize the red saturation.
In addition, for example, when the movement speed of the subject varies greatly and the maximum value of the movement speed is relatively low, it can be determined that the subject is a non-powered moving subject such as a human being or an animal. In this case, shooting parameters such as increasing sensitivity of focus adjustment control and expanding the area of the AF area to be used are set in accordance with the non-powered moving subject.

ステップS5: パラメータ決定部21は、ステップS3で検索された撮影条件パターンファイルが複数か否かを判断する。撮影条件パターンファイルが複数検索された場合、パラメータ決定部21はステップS6に動作を移行する。撮影条件パターンファイルが1つのみ検索された場合、パラメータ決定部21はステップS8に動作を移行する。 Step S5: The parameter determination unit 21 determines whether or not there are a plurality of shooting condition pattern files searched in step S3. When a plurality of shooting condition pattern files are searched, the parameter determination unit 21 moves the operation to step S6. If only one shooting condition pattern file is searched, the parameter determination unit 21 shifts the operation to step S8.

ステップS6: 撮影時の機能およびセンサ情報は、一つの撮影条件パターンファイルに合致することが好ましい。なぜならば、撮影時の機能およびセンサ情報に対して、適切な撮影パラメータを一意に決定する必要があるからである。しかしながら、あらゆる撮影シーンを予め分類して撮影パラメータを決定・記憶させておくことは困難である。
そのため、撮影シーンをいくつかの傾向に分け、それらの複合(組み合わせ)によって、多様な撮影シーンへの適応性を高める。
Step S6: It is preferable that the function and sensor information at the time of shooting match one shooting condition pattern file. This is because it is necessary to uniquely determine appropriate shooting parameters for the function and sensor information at the time of shooting. However, it is difficult to determine and store shooting parameters by classifying every shooting scene in advance.
Therefore, the shooting scene is divided into several tendencies, and the adaptability to various shooting scenes is enhanced by their combination (combination).

そこで、パラメータ決定部21は、一致度が比較的高い複数の撮影条件パターンファイル1,8,11を図3に示すように複合し、新たな撮影条件パターンファイル(図3に示す1+8+11)を作成する。この場合、複合する撮影条件パターンファイルの各項目(特徴量)に矛盾や競合がない場合、複数の撮影条件パターンファイルの各項目を組み合わせて新規な撮影条件パターンファイルとすることが好ましい。一方、矛盾や競合が生じる場合は、複数の撮影条件パターンファイルの一方を優先する、両方の中間をとる、などの処理により新規な撮影条件パターンファイルを定義することが好ましい。パラメータ決定部21は、このように新規に作成した撮影条件パターンファイルを、被写体種別が複合したシーンに対応するものとして、記憶部15に登録する。   Therefore, the parameter determination unit 21 creates a new shooting condition pattern file (1 + 8 + 11 shown in FIG. 3) by combining a plurality of shooting condition pattern files 1, 8, and 11 having relatively high matching degrees as shown in FIG. To do. In this case, when there are no contradictions or conflicts in the items (features) of the combined shooting condition pattern file, it is preferable to combine the items of the plurality of shooting condition pattern files into a new shooting condition pattern file. On the other hand, when contradiction or conflict occurs, it is preferable to define a new shooting condition pattern file by processing such as giving priority to one of a plurality of shooting condition pattern files or taking the middle of both. The parameter determining unit 21 registers the newly created shooting condition pattern file in the storage unit 15 as corresponding to a scene in which subject types are combined.

例えば、撮影条件パターンファイルとして、風景被写体と夕日被写体と逆光被写体とを複合することにより、風景+夕日+逆光(夕日を含む逆光状態の風景被写体)に対応する新規な撮影条件パターンファイルが登録される。   For example, as a shooting condition pattern file, a new shooting condition pattern file corresponding to landscape + sunset + backlight (backlighted landscape object including sunset) is registered by combining a landscape subject, a sunset subject, and a backlight subject. The

この新たな撮影条件パターンファイルを生成して登録することにより、次回からは、同様の機能の設定およびセンサ情報に対しては、生成された撮影条件パターンファイルが優先的に検索されるようになる。なお、ユーザーが、新規作成された撮影条件パターンファイルに対応する被写体種別を任意に定義してもよい。   By generating and registering this new shooting condition pattern file, the generated shooting condition pattern file is preferentially searched for similar function settings and sensor information from the next time. . Note that the user may arbitrarily define the subject type corresponding to the newly created shooting condition pattern file.

ステップS7: パラメータ決定部21は、図4に示すように、新規に登録した複合シーンに対応する新規な撮影パラメータを定義する。例えば、ステップS4で被写体種別ごとに求めた複数の撮影パラメータに矛盾や競合がない場合、複数の撮影パラメータを組み合わせて新規な撮影パラメータとすることが好ましい。また例えば、複数の撮影パラメータに矛盾や競合が生じる場合は、一方を優先する、両方の中間をとる、などの処理により新規な撮影パラメータを定義することが好ましい。パラメータ決定部21は、このように新規作成された撮影パラメータを、新たに作成した撮影条件パターンファイルに対応するものとして、記憶部15の制御変数パターンファイルに登録する。なお、ユーザーが、新規作成された複合シーンに対応する撮影パラメータを後から任意に定義し直してもよい。 Step S7: As shown in FIG. 4, the parameter determination unit 21 defines a new shooting parameter corresponding to the newly registered composite scene. For example, when there is no contradiction or competition among the plurality of shooting parameters obtained for each subject type in step S4, it is preferable to combine the plurality of shooting parameters into a new shooting parameter. Further, for example, when contradiction or competition occurs in a plurality of shooting parameters, it is preferable to define a new shooting parameter by processing such as giving priority to one or taking the middle of both. The parameter determination unit 21 registers the newly created shooting parameter in the control variable pattern file of the storage unit 15 as corresponding to the newly created shooting condition pattern file. The user may arbitrarily redefine the shooting parameters corresponding to the newly created composite scene later.

ステップS8: 撮影部17は、ステップS7(ステップS7を実行していない場合はステップS4)で決定された撮影パラメータに従って、撮影動作を行う。 Step S8: The photographing unit 17 performs a photographing operation according to the photographing parameter determined in step S7 (step S4 when step S7 is not executed).

ステップS9: 記録処理部18は、ステップS6(ステップS6を実行していない場合はステップS3)で決定された撮影条件パターンファイルを示す属性情報を検索部20から情報取得する。記録処理部18は、ステップS8で撮影された撮影画像のメタデータ(画像の特徴を記述したデータ)として、この属性情報を記録する。例えば、この属性情報は、画像ファイルのEXIF情報内に記録される。 Step S9: The recording processing unit 18 acquires the attribute information indicating the photographing condition pattern file determined in step S6 (step S3 when step S6 is not executed) from the search unit 20. The recording processing unit 18 records this attribute information as metadata of the captured image captured in step S8 (data describing the characteristics of the image). For example, this attribute information is recorded in the EXIF information of the image file.

ステップS10: 記録処理部18は、撮影画像の画像解析結果を、撮影画像のメタデータとして記録する。例えば、この場合の画像解析としては、下記のものが好ましい。
(1)顔認識・顔判定…画像中の顔を認識する。顔判定では誰が映っているかを認識。
(2)対称性判定…水平線に対する画像の対称性を判定し、水面の映り込みなどを判定。
(3)点光源判定…暗い風景なのか、イルミネーション(点光源)の多い夜景かを判定。
(4)文字認識…文字認識結果から撮影シーンを推定する。テキスト情報をメタデータとして抽出する。
Step S10: The recording processing unit 18 records the image analysis result of the captured image as metadata of the captured image. For example, the following is preferable as the image analysis in this case.
(1) Face recognition / face judgment: Recognize the face in the image. Face recognition recognizes who is shown.
(2) Judgment of symmetry: Judges the symmetry of the image with respect to the horizon, and determines the reflection of the water surface.
(3) Point light source judgment: Judges whether the scene is dark or night scene with many illuminations (point light sources).
(4) Character recognition: Estimate the shooting scene from the result of character recognition. Extract text information as metadata.

ただし、あらゆる種類の被写体種別について画像解析を毎回実施することは、処理時間の問題から困難である。そこで、図4に示すように、撮影条件パターンファイルから推定される被写体種別を参考情報とすることで、画像解析を行う被写体種別の種類を毎回絞ることが好ましい。   However, it is difficult to perform image analysis for every kind of subject type every time due to the problem of processing time. Therefore, as shown in FIG. 4, it is preferable to narrow down the types of subject types to be subjected to image analysis each time by using the subject types estimated from the photographing condition pattern file as reference information.

《カメラ11による画像検索動作の説明》
図5は、カメラ11における画像検索の動作を示す流れ図である。以下、図5に示すステップ番号に沿って、この動作を説明する。
<< Description of Image Search Operation by Camera 11 >>
FIG. 5 is a flowchart showing an image search operation in the camera 11. Hereinafter, this operation will be described along the step numbers shown in FIG.

ステップS41: ユーザーは、所望の被写体が映っている画像データを検索するため、その被写体に関連するキーワードを入力部19に入力する。入力部19は、この入力キーワードを画像検索部22に伝達する。 Step S41: The user inputs a keyword related to the subject to the input unit 19 in order to search for image data showing the desired subject. The input unit 19 transmits this input keyword to the image search unit 22.

ステップS42: 画像検索部22は、表3に一例を示すデータテーブルに入力キーワードを照会し、入力キーワードに対応する属性情報(撮影条件パターンファイル)を選ぶ。画像検索部22は、この属性情報を、記録された撮影画像の属性情報に照会し、属性情報が合致または類似する撮影画像を選び出す。

Figure 0004743097
Step S42: The image search unit 22 refers to the input keyword in the data table shown in Table 3 as an example, and selects attribute information (imaging condition pattern file) corresponding to the input keyword. The image search unit 22 refers to the attribute information of the recorded captured image for the attribute information, and selects a captured image that matches or is similar to the attribute information.
Figure 0004743097

ステップS43: 画像検索部22は、ステップS42で選出された撮影画像のサムネイルを並べて、リンク付きサムネイル頁を作成する。画像検索部22は、作成したサムネイル頁のデータを、画像検索結果としてカメラ11のモニタ画面(不図示)に表示する。ユーザーは、このサムネイル頁を閲覧し、サムネイル頁のリンクを操作することで、探索結果である撮影画像にアクセスすることができる。
この動作により、膨大な撮影画像の中から、入力キーワードに関連する被写体が映っている画像を迅速に検索することが可能になる。
Step S43: The image search unit 22 arranges the thumbnails of the photographed images selected in Step S42 and creates a linked thumbnail page. The image search unit 22 displays the created thumbnail page data on the monitor screen (not shown) of the camera 11 as an image search result. The user can access the photographed image as a search result by browsing the thumbnail page and operating the link of the thumbnail page.
With this operation, it is possible to quickly search for an image showing a subject related to the input keyword from a large number of photographed images.

《コンピュータによる画像検索動作の説明》
上述した画像検索処理は、カメラ11に限らず、コンピュータ上でも実行可能である。図6は、このコンピュータによる画像検索処理を説明する図である。コンピュータ30は、画像検索プログラムを起動することによって、図6に示す画像取得部31、入力部32、および画像検索部33として機能する。
画像取得部31は、上述したカメラ11において記録された撮影画像および属性情報(撮影条件パターンファイルに対応するもの)を、通信媒体や記録媒体を経由して取り込む。
<Description of image search operation by computer>
The image search process described above can be executed not only on the camera 11 but also on a computer. FIG. 6 is a diagram for explaining image search processing by this computer. The computer 30 functions as the image acquisition unit 31, the input unit 32, and the image search unit 33 illustrated in FIG. 6 by starting the image search program.
The image acquisition unit 31 captures the captured image and attribute information (corresponding to the capturing condition pattern file) recorded by the camera 11 described above via a communication medium or a recording medium.

一方、ユーザーは、所望の被写体が映っている画像データを検索するため、その被写体に関連するキーワードを入力部32に入力する。画像検索部33は、このキーワードを、上述した表3に示すようなデータテーブルに照会し、入力キーワードに対応する属性情報(撮影条件パターンファイル)を求める。画像検索部33は、この属性情報を、画像取得部31から取得した属性情報に照合し、属性情報が合致または類似する撮影画像を選び出す。
このように、カメラ11で記録された撮影画像については、カメラ11内で属性情報が既に付加されている。そのため、コンピュータ30上にこれらの撮影画像と属性情報を取り込むだけで、上述した画像検索処理を即座に実行することが可能になる。
On the other hand, the user inputs a keyword related to the subject to the input unit 32 in order to search for image data showing the desired subject. The image search unit 33 refers to the keyword in the data table as shown in Table 3 above, and obtains attribute information (imaging condition pattern file) corresponding to the input keyword. The image search unit 33 collates this attribute information with the attribute information acquired from the image acquisition unit 31, and selects a captured image that matches or is similar to the attribute information.
Thus, attribute information has already been added in the camera 11 for the captured image recorded by the camera 11. For this reason, it is possible to immediately execute the above-described image search process simply by taking these captured images and attribute information into the computer 30.

《センサ情報の処理の具体例》
図7〜図11は、被写体の特徴算出アルゴリズムを説明する図である。
まず、図7[A]は、図1の加速度センサ14cに含まれる方位センサのセンサ情報などから、撮影方位の情報を新たに作成する様子を示す。まず、この方位センサの出力からは、北に対するカメラ11の光軸の角度θ1が検出される。一方、図1に示すズームエンコーダ14fからは、カメラ11の水平画角ωhが検出される。この場合、光軸角度θ1が、(270゜+ωh/2)>θ1>(270゜−ωh/2)の範囲にあれば、カメラ11の水平画角内には真西が入る。このとき、タイマー14gの日時情報が日没時刻にあれば、撮影画像内の高輝度被写体が夕日である確率は高い。なお、タイマー14gから得られる日時情報に基づいて正確な太陽の日没方位を求めることもできる。この場合、日没方位が水平画角ωhに入り、かつ日没時刻に該当するか否かによって、正確な夕日の判定を行うこともできる。
<< Specific examples of sensor information processing >>
7 to 11 are diagrams for explaining a subject feature calculation algorithm.
First, FIG. 7A shows a state in which shooting direction information is newly created from sensor information of the direction sensor included in the acceleration sensor 14c of FIG. First, the angle θ1 of the optical axis of the camera 11 with respect to the north is detected from the output of this direction sensor. On the other hand, the horizontal angle of view ωh of the camera 11 is detected from the zoom encoder 14f shown in FIG. In this case, if the optical axis angle θ1 is in the range of (270 ° + ωh / 2)>θ1> (270 ° −ωh / 2), the true west falls within the horizontal angle of view of the camera 11. At this time, if the date and time information of the timer 14g is at the sunset time, the probability that the high-intensity subject in the captured image is sunset is high. It is also possible to obtain an accurate sun sunset direction based on the date and time information obtained from the timer 14g. In this case, it is possible to accurately determine the sunset based on whether or not the sunset direction falls within the horizontal angle of view ωh and corresponds to the sunset time.

また、図7[B]には、加速度センサ14cで検出される重力加速度の方向によって、水平線(地平線)の画面内位置を検出する様子を示す。この加速度センサの出力からは、カメラ11の仰角θ2が検出される。一方、ズームエンコーダ14fからは、カメラ11の垂直画角ωvが検出される。この場合、仰角θ2が、+ωv/2>θ2>−ωv/2の範囲にあれば、カメラ11の垂直画角ωv内には水平線が入る。さらに、垂直画角ωvにおける仰角θの位置から、画面内における水平線の位置を検出することもできる。   FIG. 7B shows a state in which the position in the screen of the horizontal line (horizon line) is detected based on the direction of gravity acceleration detected by the acceleration sensor 14c. From the output of the acceleration sensor, the elevation angle θ2 of the camera 11 is detected. On the other hand, the vertical angle of view ωv of the camera 11 is detected from the zoom encoder 14f. In this case, if the elevation angle θ2 is in the range of + ωv / 2> θ2> −ωv / 2, a horizontal line enters the vertical angle of view ωv of the camera 11. Further, the position of the horizontal line in the screen can be detected from the position of the elevation angle θ at the vertical field angle ωv.

さらに、図8には、図1に示す測光センサ14aの分割測光/測色結果を示す。この場合、図7[B]で求めた水平線位置を用いて、分割測光/測色結果を、地上域と空中域とに概略分割することができる。図9[A]には、この地上域の色出現頻度を示す。図9[B]には、この地上域の明度出現頻度を示す。例えば、地上域に緑色が多い場合には、草原や人工芝などの確率が高いと判断できる。なお、このような判定は、色や明度のヒストグラムではなく、RGB別の色ヒストグラムで代用することも可能である。   Further, FIG. 8 shows a divided photometric / colorimetric result of the photometric sensor 14a shown in FIG. In this case, the divided photometric / colorimetric results can be roughly divided into a ground area and an aerial area using the horizontal line position obtained in FIG. 7B. FIG. 9A shows the color appearance frequency of the ground area. FIG. 9B shows the lightness appearance frequency in the ground area. For example, when the ground area has a lot of green, it can be determined that the probability of grassland or artificial grass is high. Such a determination can be substituted by a color histogram for each RGB instead of a histogram for color and lightness.

図10[A]には、測距センサ14dで検出されるデフォーカス量を時間微分して得られる像面移動速度を示す。定速移動する被写体であっても、光学系の特性によって像面移動速度は二次関数的に変化する。図10[B]は、この像面移動速度を、物空間の被写体移動速度に変換したものである。この被写体移動速度およびその速度変動から、被写体移動の特徴を得ることができる。   FIG. 10A shows the image plane moving speed obtained by time differentiation of the defocus amount detected by the distance measuring sensor 14d. Even for a subject moving at a constant speed, the image plane moving speed changes in a quadratic function depending on the characteristics of the optical system. FIG. 10B shows the image plane moving speed converted into the subject moving speed in the object space. From this subject moving speed and its speed fluctuation, the characteristics of the subject moving can be obtained.

《機能とセンサ情報との組み合わせ判断の具体例》
図11は、機能の設定状態とセンサ情報とを総合的に示す図である。これらの情報の組み合わせからは下記のような被写体の特徴算出アルゴリズムが実施できる。
<< Specific example of combination judgment of function and sensor information >>
FIG. 11 is a diagram comprehensively showing a function setting state and sensor information. From the combination of these pieces of information, the following subject feature calculation algorithm can be implemented.

(1)撮影レンズの焦点距離(ズームエンコーダ14fによって検出)、ピント位置(距離エンコーダ14eによって検出)、および撮像サイズから、画角と撮影距離が検出される。これらセンサ情報により、被写界サイズ(写る範囲)を算出できる。この被写界サイズからは、被写体の実サイズを推定することができる。例えば、この実サイズを用いて、顔検出や物体検出の判断を補助することができる。 (1) The angle of view and the shooting distance are detected from the focal length of the shooting lens (detected by the zoom encoder 14f), the focus position (detected by the distance encoder 14e), and the imaging size. Based on these sensor information, the field size (image area) can be calculated. From this field size, the actual size of the subject can be estimated. For example, this actual size can be used to assist the determination of face detection or object detection.

(2)測光センサ14aの出力からは、被写界の色・明度情報が得られる。この色・明度情報に基づいて、被写界の輝度分布、色分布、時間的輝度変化などが算出できる。 (2) The color / brightness information of the object scene is obtained from the output of the photometric sensor 14a. Based on the color / lightness information, the luminance distribution, color distribution, temporal luminance change, and the like of the object scene can be calculated.

(3)測距センサ14dにより、撮影画面内の複数の位置におけるデフォーカス量が得られる。このデフォーカス量を用いて、被写界の大まかな距離分布を検出できる。また、継続的に測距動作を実施した場合は、距離変動の傾向も検出することができる。 (3) Defocus amounts at a plurality of positions in the photographing screen can be obtained by the distance measuring sensor 14d. By using this defocus amount, a rough distance distribution of the object scene can be detected. In addition, when the distance measuring operation is continuously performed, the tendency of the distance variation can be detected.

(4)方位センサと加速度センサによって、光軸の北からの角度と地面に対する仰角が検出できる。更に、カメラ11の縦位置・横位置センサによって、撮影画面の傾斜を検出することができる。これらのセンサ情報に基づいて、撮影画像中の水平線の位置や傾きを推定することができる。 (4) The azimuth sensor and acceleration sensor can detect the angle from the north of the optical axis and the elevation angle with respect to the ground. Further, the inclination of the photographing screen can be detected by the vertical position / horizontal position sensor of the camera 11. Based on these sensor information, the position and inclination of the horizon in the captured image can be estimated.

(5)加速度センサ14cの加速度の時間変化を検出することにより、カメラ11のブレや移動などを検知することもできる。 (5) By detecting the time change of the acceleration of the acceleration sensor 14c, it is also possible to detect blurring or movement of the camera 11.

(6)温度センサ14bによって、環境温度を検出できる。一方、タイマー14gによって日時や季節や暦の情報を検出できる。 (6) The environmental temperature can be detected by the temperature sensor 14b. On the other hand, the timer 14g can detect date, season, and calendar information.

(7)ズームエンコーダ14fによって撮影レンズが広角側と判定され、測距センサ14dによって被写界の距離分布が無限遠に偏り、測光センサ14aによって画面上部に青領域(空)が多く、ドライブモードが一コマ撮影に設定され、かつAFモードがシングルエリアかつシングルAF(AF−S)に設定されているなどの特徴を持つ場合、高い確率で風景と判定できる。 (7) The zoom lens 14f determines that the photographing lens is on the wide-angle side, the distance sensor 14d biases the distance distribution of the object field to infinity, and the photometric sensor 14a has a large blue area (sky) at the top of the screen. Is set to single frame shooting, and the AF mode is set to single area and single AF (AF-S).

(8)距離エンコーダ14eにより撮影距離が接写域に入り、測距センサ14dによって被写体の移動幅が狭く、かつ測光センサ14aによる検出色域が緑・赤・黄色が多いといった特徴を持つ場合、花のクローズアップ撮影である確率が高い。 (8) When the distance encoder 14e brings the shooting distance into the close-up area, the distance measurement sensor 14d has a narrow movement width of the subject, and the photometric sensor 14a has a feature that the color gamut detected is green, red, or yellow. There is a high probability of being close-up shooting.

(9)ズームエンコーダ14fによって撮影レンズが望遠側と判定され、AFモードがコンティニュアスAF(AF−C)に設定され、ドライブモードが連写モードに設定され、距離エンコーダ14eにより撮影距離が20〜50mに入り、かつ測距センサ14dにより被写体速度が人間の走行速度域に入って高頻度に変動(止まったり、走ったり)する場合、サッカーなどのスポーツ撮影である確率が高い。 (9) The photographing lens is determined to be on the telephoto side by the zoom encoder 14f, the AF mode is set to continuous AF (AF-C), the drive mode is set to the continuous shooting mode, and the photographing distance is set to 20 by the distance encoder 14e. When the subject speed is within 50 m and the subject speed is in the human travel speed range by the distance measuring sensor 14 d and fluctuates frequently (stops or runs), there is a high probability of shooting sports such as soccer.

(10)加速度センサによりカメラ姿勢が下向きであることを検出し、かつシャッタ釦が半押しでない場合は、非撮影時と判断して検出動作を停止できる。また、シャッタ半押し状態で急激にカメラ姿勢が変化した場合には、構図変更と判断することもできる。 (10) When it is detected by the acceleration sensor that the camera posture is downward and the shutter button is not half-pressed, it is determined that the photographing is not performed, and the detection operation can be stopped. If the camera posture changes suddenly with the shutter half-pressed, it can be determined that the composition has changed.

(11)夕日を含む風景を被写体とする状況において、画像解析により地平線を対称軸として被写体輝度や被写体色に対称性が認められれば、水面に映る夕日の風景と判断することができる。 (11) In a situation where a landscape including a sunset is a subject, if a symmetry is recognized in subject brightness and subject color with the horizon as a symmetry axis by image analysis, it can be determined that the landscape is a sunset reflected on the water surface.

(12)画面下部が緑色、かつ光源色温度が人工照明などの被写体状況から、ナイタースポーツと判断することができる。この場合、背番号の文字認識や、ユニフォームの画像認識によりチーム名や選手名などを特定できる。これら名前情報は、撮影画像に属性情報として付加することもできる。 (12) It can be determined that it is night sports from the state of the subject such as green at the bottom of the screen and the light source color temperature of artificial lighting. In this case, a team name, a player name, etc. can be specified by character recognition of a uniform number or image recognition of a uniform. These name information can also be added to the captured image as attribute information.

《本実施形態の効果など》
本実施形態では、カメラ11の機能設定およびセンサ情報を組み合わせて判断材料とする。このカメラ11の機能は、ユーザーが主要被写体に合わせて適宜に設定するものであり、主要被写体の状況が強く反映される。一方、センサ情報には、客観的な被写体状況が反映される。このように特徴の異なる両情報を組み合わせることによって、被写体種別をより多様な観点から推測することが可能になる。
<< Effects of this embodiment >>
In the present embodiment, the function setting of the camera 11 and the sensor information are combined and used as the determination material. The function of the camera 11 is set appropriately by the user in accordance with the main subject, and the situation of the main subject is strongly reflected. On the other hand, an objective subject situation is reflected in the sensor information. By combining both pieces of information having different characteristics in this way, the subject type can be estimated from more various viewpoints.

また、本実施形態では、機能の設定状態およびセンサ情報を、予め設定された撮影条件パターンファイルに照合することで、被写体種別を推測する。このような処理は、画像解析による被写体判定を逐一行う場合に比べて処理負荷が少なく、被写体種別を高速に判定することが可能になる。   In the present embodiment, the subject type is estimated by checking the function setting state and sensor information against a preset shooting condition pattern file. Such processing has less processing load than the case where subject determination by image analysis is performed one by one, and the subject type can be determined at high speed.

さらに、本実施形態では、複数の撮影条件パターンファイルが検索された場合、複数の撮影条件パターンファイルにそれぞれ対応する撮影パラメータを複合して、新たな撮影パラメータを作成する。その結果、未登録の被写体種別に対しても柔軟に対応して、撮影パラメータを決定することが可能になる。   Furthermore, in the present embodiment, when a plurality of shooting condition pattern files are searched, new shooting parameters are created by combining shooting parameters corresponding to the plurality of shooting condition pattern files. As a result, it is possible to flexibly cope with unregistered subject types and determine shooting parameters.

また、本実施形態では、撮影パラメータを決定するために求めた属性情報(撮影条件パターンファイル)をメタデータとして、撮影画像に対応付けて記録する。したがって、この属性情報に基づいて、カメラ11またはコンピュータ30上で画像検索処理を簡易に実行することが可能になる。   In the present embodiment, the attribute information (shooting condition pattern file) obtained for determining the shooting parameter is recorded as metadata in association with the shot image. Therefore, it is possible to easily execute the image search process on the camera 11 or the computer 30 based on the attribute information.

以上説明したように、本発明は、カメラなどに利用可能な技術である。   As described above, the present invention is a technique that can be used for a camera or the like.

本実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of this embodiment. カメラ11の撮影動作を説明する流れ図である。4 is a flowchart for explaining a photographing operation of the camera 11. 撮影条件パターンファイルの複合処理を説明する図である。It is a figure explaining the composite process of an imaging condition pattern file. 撮影パラメータの複合処理とメタデータの生成処理とを説明する図である。It is a figure explaining the composite process of an imaging parameter, and the production | generation process of metadata. カメラ11における画像検索の動作を示す流れ図である。4 is a flowchart showing an image search operation in the camera 11. コンピュータ30による画像検索処理を示す図である。It is a figure which shows the image search process by the computer. 撮影方位と水平線の検出処理を説明する図である。It is a figure explaining an imaging azimuth | direction and a detection process of a horizon. 地上域と空中域の被写界判断を説明する図である。It is a figure explaining the field judgment of a ground area and an aerial area. 地上域のヒストグラム解析を説明する図である。It is a figure explaining the histogram analysis of a terrestrial area. 被写体の移動速度検出を説明する図である。It is a figure explaining the moving speed detection of a to-be-photographed object. 機能の設定状態とセンサ情報とを総合的に示す図である。It is a figure which shows the setting state and sensor information of a function comprehensively.

符号の説明Explanation of symbols

11…カメラ,12…設定部,13…操作部材,14…センサ部,15…記憶部,16…マイクロプロセッサ,17…撮影部,18…記録処理部,19…入力部,20…検索部,21…パラメータ決定部,22…画像検索部,30…コンピュータ,31…画像取得部,32…入力部,33…画像検索部
DESCRIPTION OF SYMBOLS 11 ... Camera, 12 ... Setting part, 13 ... Operation member, 14 ... Sensor part, 15 ... Memory | storage part, 16 ... Microprocessor, 17 ... Shooting part, 18 ... Recording process part, 19 ... Input part, 20 ... Search part, DESCRIPTION OF SYMBOLS 21 ... Parameter determination part, 22 ... Image search part, 30 ... Computer, 31 ... Image acquisition part, 32 ... Input part, 33 ... Image search part

Claims (5)

カメラの機能を設定する設定部と、
被写体の状態または前記カメラの動作状態を検出するセンサ部と、
前記設定部で設定される前記機能および前記センサ部の検出結果に対応する情報の組み合わせを被写体の種別ごとに予め分類して記憶する記憶部と、
前記設定部で設定される前記機能および前記センサ部の検出結果に相当する前記組み合わせを前記記憶部から検索する検索部と、
前記検索部によって検索された前記組み合わせに基づいて、前記カメラの撮影パラメータを決定するパラメータ決定部と、
前記パラメータ決定部で決定された前記撮影パラメータに従って撮影を行う撮影部と
を備えたことを特徴とするカメラ。
A setting section for setting camera functions;
A sensor unit for detecting a state of a subject or an operating state of the camera;
A storage unit for storing a combination of information corresponding to the function set by the setting unit and a detection result of the sensor unit in advance for each subject type;
A search unit that searches the storage unit for the combination corresponding to the function set by the setting unit and the detection result of the sensor unit;
A parameter determining unit that determines a shooting parameter of the camera based on the combination searched by the search unit;
A camera comprising: a photographing unit that performs photographing according to the photographing parameter determined by the parameter determining unit.
請求項1に記載のカメラにおいて、
前記パラメータ決定部は、前記相当する組み合わせが複数存在する場合、複数の前記組み合わせのそれぞれに対応する撮影パラメータに基づいて、第2の撮影パラメータを作成する
ことを特徴とするカメラ。
The camera of claim 1,
The said parameter determination part produces the 2nd imaging | photography parameter based on the imaging | photography parameter corresponding to each of the said some combination, when the said corresponding combination exists in multiple numbers. The camera characterized by the above-mentioned.
請求項1または請求項2に記載のカメラにおいて、
前記組み合わせに対応する属性情報を、前記撮影部で撮影された撮影画像に対応付けて記録する記録処理部を備えた
ことを特徴とするカメラ。
The camera according to claim 1 or 2,
A camera comprising: a recording processing unit that records attribute information corresponding to the combination in association with a photographed image photographed by the photographing unit.
請求項3に記載のカメラにおいて、
前記属性情報に基づいて、前記記録処理部で記録された前記撮影画像を検索する画像検索部を備えた
ことを特徴とするカメラ。
The camera according to claim 3.
A camera comprising: an image search unit that searches for the captured image recorded by the recording processing unit based on the attribute information.
コンピュータを、
請求項3または請求項4に記載のカメラに記録された前記撮影画像および前記属性情報を取り込む画像取得部と、
前記属性情報の入力を受け付ける入力部と、
入力された前記属性情報に対応する前記撮影画像を検索する画像検索部と
して機能させるための画像検索プログラム。
Computer
An image acquisition unit that captures the captured image and the attribute information recorded in the camera according to claim 3 or 4,
An input unit for receiving input of the attribute information;
An image search program for functioning as an image search unit for searching for the photographed image corresponding to the input attribute information.
JP2006327800A 2006-12-05 2006-12-05 Camera and image search program Expired - Fee Related JP4743097B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006327800A JP4743097B2 (en) 2006-12-05 2006-12-05 Camera and image search program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006327800A JP4743097B2 (en) 2006-12-05 2006-12-05 Camera and image search program

Publications (2)

Publication Number Publication Date
JP2008141635A JP2008141635A (en) 2008-06-19
JP4743097B2 true JP4743097B2 (en) 2011-08-10

Family

ID=39602613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006327800A Expired - Fee Related JP4743097B2 (en) 2006-12-05 2006-12-05 Camera and image search program

Country Status (1)

Country Link
JP (1) JP4743097B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5153478B2 (en) * 2008-06-26 2013-02-27 キヤノン株式会社 Image processing apparatus and image processing method
US8675096B2 (en) 2009-03-31 2014-03-18 Panasonic Corporation Image capturing device for setting one or more setting values for an imaging mechanism based on acquired sound data that includes information reflecting an imaging environment
JP5520038B2 (en) 2009-12-25 2014-06-11 キヤノン株式会社 Video processing apparatus and video processing method
JP2012256051A (en) * 2011-05-13 2012-12-27 Koichiro Mizuta Camera
US8634661B2 (en) * 2011-09-07 2014-01-21 Intellectual Ventures Fund 83 Llc Event classification method using light source detection
JP6444981B2 (en) * 2014-02-28 2018-12-26 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP5782546B2 (en) * 2014-04-07 2015-09-24 キヤノン株式会社 VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4955909B2 (en) * 2003-11-19 2012-06-20 カシオ計算機株式会社 Camera device and imaging condition setting method thereof

Also Published As

Publication number Publication date
JP2008141635A (en) 2008-06-19

Similar Documents

Publication Publication Date Title
JP4743097B2 (en) Camera and image search program
TWI416945B (en) Image processing apparatus, image processing method and computer readable-medium
US8218064B2 (en) Image recognition device, focus adjustment device, image-capturing device, and image recognition method
KR101434564B1 (en) Method and system for extracting the photographing information
JP5454158B2 (en) Imaging apparatus, control method thereof, and program
US20120113272A1 (en) Imaging apparatus, imaging system, and control method thereof
US20130258167A1 (en) Method and apparatus for autofocusing an imaging device
WO2009090992A1 (en) Electronic camera
JP2002010135A (en) System and method of setting image acquisition controls for cameras
US20140192162A1 (en) Single-eye stereoscopic imaging device, imaging method and recording medium
JP2009015185A (en) Image detection device, focusing device and image pickup apparatus
CN101640764B (en) Imaging apparatus and method
US7822327B2 (en) Method for automatically selecting scene mode
CN105872355A (en) Focus adjustment device and focus adjustment method
US20040252223A1 (en) Image pickup device, image pickup system and image pickup method
JP2008011289A (en) Digital camera
CN110581950B (en) Camera, system and method for selecting camera settings
US7570281B1 (en) Image processing apparatus and method for detecting a main subject to be photographed
JP5044472B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN106094392B (en) Control equipment, picture pick-up device and control method
JP2003022443A (en) Device, method, and program for image comparison, and device and method for photography
JP5070856B2 (en) Imaging device
JP2013005405A (en) Electronic camera
JP2005286379A (en) Photographing support system and photographing support method
JP5181687B2 (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110425

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4743097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees