JP4867428B2 - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP4867428B2
JP4867428B2 JP2006095743A JP2006095743A JP4867428B2 JP 4867428 B2 JP4867428 B2 JP 4867428B2 JP 2006095743 A JP2006095743 A JP 2006095743A JP 2006095743 A JP2006095743 A JP 2006095743A JP 4867428 B2 JP4867428 B2 JP 4867428B2
Authority
JP
Japan
Prior art keywords
shooting
feature
photographing
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006095743A
Other languages
Japanese (ja)
Other versions
JP2007274195A (en
Inventor
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006095743A priority Critical patent/JP4867428B2/en
Publication of JP2007274195A publication Critical patent/JP2007274195A/en
Application granted granted Critical
Publication of JP4867428B2 publication Critical patent/JP4867428B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、予め撮影条件を指定したシーンプログラム撮影機能を有するデジタルカメラ等に好適な撮像装置、撮像方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program suitable for a digital camera or the like having a scene program shooting function in which shooting conditions are specified in advance.

従来、写真や撮影画像のデータはカメラの撮影処理や画像信号処理を制御するために重要な情報源であった。そのため、歴史の古いカメラメーカーでは、各種カメラマン等が撮影した膨大な写真データベースや撮影頻度データ等を元に、撮影シーン毎に最適な撮影条件が設定できるようにカメラの制御部を設計し、あるいは被写体輝度と被写体距離の頻度データ等をカメラに内蔵して撮影シーンの推定機能を設け、あるいは被写体輝度から最も頻度の高い被写体距離を推測して、最適と思われる合焦位置や露光条件、ホワイトバランスなどの撮影処理を行なうようにカメラを設計する場合もあった。   Conventionally, photograph and photographed image data has been an important information source for controlling camera photographing processing and image signal processing. For this reason, camera makers that have a long history design camera control units so that optimal shooting conditions can be set for each shooting scene based on a huge database of photos taken by various photographers and shooting frequency data. Subject brightness and subject distance frequency data are built into the camera and a shooting scene estimation function is provided, or the most frequent subject distance is estimated from subject brightness, and the optimal focus position, exposure conditions, In some cases, the camera was designed to perform shooting processing such as balance.

しかるに、銀塩フィルムを用いたカメラ(以下「銀塩カメラ」と称する)に代わって、画像情報を電子データの形で記録して保存することができるデジタルカメラが主流となった昨今では、銀塩カメラで撮影した写真と異なり、カメラユーザの特性、撮影目的、撮影対象や撮影条件、利用頻度など多くの要因が異なるものとなる。   However, instead of cameras using silver halide films (hereinafter referred to as “silver halide cameras”), digital cameras capable of recording and storing image information in the form of electronic data have become mainstream. Unlike a photograph taken with a salt camera, many factors such as camera user characteristics, shooting purpose, shooting target, shooting conditions, and usage frequency are different.

加えて、時の流れに連れて消費者であるデジタルカメラユーザの好みや望ましい画質も変化するため、銀塩カメラ時代の写真の履歴データがあったとしても、デジタルカメラでの撮影や新しいカメラユーザの嗜好に合わせて情報を収集し更新し続ける必要がある。   In addition, the preferences and desirable image quality of digital camera users, who are consumers, change with the passage of time, so even if there is historical data of photos from the silver salt camera era, shooting with digital cameras and new camera users It is necessary to keep collecting and updating information according to the tastes of people.

一方で、パーソナルコンピュータやカメラ機能付きの携帯電話機、インターネット等の普及に伴い、カメラから個人の撮影画像や撮影情報をアップロードして特定のサーバ装置などに収集することも技術的には可能となった。   On the other hand, with the spread of personal computers, mobile phones with camera functions, the Internet, etc., it is technically possible to upload personal captured images and information from cameras and collect them in a specific server device. It was.

しかしながら、個人情報やプライバシーにも関わる情報であることなど解決しなければならない問題もあり、個人情報を含む撮影情報を収集する場合にはその体制や漏洩防止策を厳しく管理する必要がある。   However, there are problems that need to be solved, such as personal information and information related to privacy. When photographing information including personal information is collected, it is necessary to strictly manage the system and leakage prevention measures.

また、カメラメーカーが所有する画像や、ユーザからの投稿等による譲渡画像のみをデータベースに利用するものとした場合、サンプル数が少なく、統計データの信頼性が低下し、あるいはカメラユーザの新しい傾向をカバーしきれないという不具合を生じることになる。   In addition, if only the images owned by the camera maker or the images transferred from the user are used for the database, the number of samples is small, the reliability of the statistical data decreases, or the camera users have a new trend. This will cause a problem that it cannot be covered.

これら収集された多くの画像を効率よく検索する手段として、その画像コンテンツの「特徴」や特定のシーンを指し示す「しおり」等を付加しておき、これらを直接の検索対称とすることでコンテンツ検索に変える方法がある。   As a means to efficiently search many of these collected images, add "features" of the image content, "bookmarks" pointing to specific scenes, etc., and make these directly symmetric to search for content There is a way to change it.

これらのメタデータの記述方法等を定めた各種のメタデータ記述規格も、汎用用途ではDublin CoreやMPEG7(ISO/IEC 15938,Multimedia Content Description Interface)、ニュース・TV放送等のコンテンツではSMPTEやEBUのP/Meta、TV−Anytime、XMLNews、NewsMLなど各種標準化が進んでいる。   Various metadata description standards that define such metadata description methods are also used for general-purpose applications such as Dublin Core and MPEG7 (ISO / IEC 15938, Multimedia Content Description Interface), and content such as news and TV broadcasting such as SMPTE and EBU. Various standardizations such as P / Meta, TV-Anytime, XMLNews, and NewsML are in progress.

また特許文献では、例えば撮影時の被写体距離、レンズ焦点距離、ストロボ光源情報やフィルム処理情報、露出不足画像の補正必要情報などの撮影情報を着脱自在な記録媒体に記録するようにした「外部記憶装置に情報を記録するカメラ」の技術が記載されている。(特許文献1)
MPEG7は、MPEG1,2,4のような動画データの圧縮符号化の規格とは異なり、マルチメディア・コンテンツに対するメタデータの表記方法に関する標準規格であり、コンテンツのタイトルや政策関連情報、コンテンツの内容など、人間の認識レベルに近い記述ツールから、映像コンテンツの視覚オブジェクトの色、形状、模様、動きなど、信号処理で自動的に得られる逓レベルの特徴記述ツールまで表記方法が提供されている。
In the patent document, for example, shooting information such as subject distance at the time of shooting, lens focal length, strobe light source information and film processing information, and information necessary to correct an underexposed image is recorded on a removable recording medium. The technology of a “camera that records information in a device” is described. (Patent Document 1)
MPEG7 is different from the standard for compressing and encoding moving image data such as MPEG1, 2, and 4, and is a standard for metadata notation for multimedia content. Content title, policy related information, content content There are provided description methods ranging from a description tool close to a human recognition level to a multi-level feature description tool automatically obtained by signal processing, such as the color, shape, pattern, and movement of a visual object of video content.

このようにMPEG7は、他のSMPTEやEBUのP/Meta、TV−Anytimeなど特定用途向けの他のメタデータ記述規格と異なり、アプリケーションや取扱い形態、コンテンツの形態については規定していないので、様々な用途やコンテンツに利用できる。
特開平02−306228号公報
Thus, unlike other metadata description standards for specific uses such as SMPTE, EBU P / Meta, and TV-Anytime, MPEG7 does not stipulate applications, handling forms, and content forms. Can be used for various purposes and content.
Japanese Patent Laid-Open No. 02-306228

しかしながら、一般ユーザがデジタルカメラで撮影を行なった場合に、パーソナルコンピュータ等で特徴データを逐一記述したり、あるいは特徴抽出作業を行なうのに上記MPEG7の技術を用いることは非常に煩雑な作業が必要で、現実的ではない。   However, when a general user takes a picture with a digital camera, it is very complicated to use the MPEG7 technique to describe feature data one by one on a personal computer or to perform feature extraction. It's not realistic.

一般のデジタルカメラでは、撮影日時や画像サイズ、露出条件などの撮影情報を、画像データと共にExif(Exchangeable image file format)ヘッダ等に記録できるものは多いが、そのままでは画像の内容や特徴に関する情報が少なく、多数の画像から画像内容で検索するのには有効でなかった。   Many common digital cameras can record shooting information such as shooting date / time, image size, and exposure conditions together with image data in an exchangeable image file (Exif) header. It was few, and it was not effective to search by image contents from a large number of images.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、撮影した画像の内容から所望の画像を検索するなど、撮影により得た画像データの内容を有効に活用することが可能な撮像装置、方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and its purpose is to effectively use the contents of image data obtained by photographing, such as searching for a desired image from the contents of the photographed image. It is an object to provide an imaging apparatus, a method, and a program capable of performing the above.

請求項1記載の発明は、撮影条件を設定する設定手段と、この設定手段で設定した撮影条件に従って撮影を実行する撮影手段と、この撮影手段での撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出手段と、上記設定手段で設定した撮影条件と上記特徴抽出手段で得た特徴情報とを対応付けて撮影履歴情報として記憶する記憶手段と、この記憶手段に記憶している複数の撮影履歴情報を集計し、その集計結果を利用してあらたに撮影を行なう際の撮影条件を決定して上記設定手段により設定させるとともに、上記撮影手段による撮影を行なわせる撮影制御手段とを具備したことを特徴とする。   According to the first aspect of the present invention, there is provided a setting means for setting photographing conditions, a photographing means for performing photographing according to the photographing conditions set by the setting means, and a predetermined viewpoint from among image information obtained by photographing with the photographing means. Based on the feature extraction means for extracting feature information indicating the feature of the image, and storage means for storing the shooting conditions set by the setting means and the feature information obtained by the feature extraction means in association with each other as shooting history information A plurality of shooting history information stored in the storage means, and using the counting results, a shooting condition for newly shooting is determined and set by the setting means, and the shooting means And a photographing control means for performing photographing according to the above.

請求項2記載の発明は、上記請求項1記載の発明において、上記記憶手段に記憶している複数の撮影履歴情報を集計することにより、各種撮影条件と各種特徴情報との相関関係を抽出し、相関情報として記憶する相関抽出手段をさらに具備し、上記撮影制御手段は、あらたに撮影を行なう撮影対象に対応する特徴情報を取得し、取得した特徴情報との相関関係を有する撮影条件を上記記憶した相関情報に基づいて特定し、特定した撮影条件を上記設定手段により設定させるとともに、上記撮影手段による撮影を行なわせることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, a correlation between various shooting conditions and various feature information is extracted by aggregating a plurality of shooting history information stored in the storage unit. A correlation extracting unit that stores correlation information; and the imaging control unit acquires feature information corresponding to an imaging target to be newly captured, and sets the imaging condition having a correlation with the acquired feature information. It is specified based on the stored correlation information, and the specified shooting condition is set by the setting unit, and shooting by the shooting unit is performed.

請求項3記載の発明は、撮影条件を設定する設定手段と、この設定手段で設定した撮影条件に従って撮影を実行する撮影手段と、この撮影手段での撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出手段と、上記撮影手段で得た画像情報に対応した上記撮影条件と、該画像情報に対応して上記特徴抽出手段で得た特徴情報とを対応付けた撮影履歴情報を集計用の外部装置へ送信する送信手段と、上記集計用の外部装置によって複数の撮像装置からの撮影履歴情報が集計されることにより得られた各種撮影条件と各種特徴情報との相関関係を示す相関情報を、前記集計用の外部装置より受信する受信手段と、あらたに撮影を行なう撮影対象に対応する特徴情報を取得し、この取得された特徴情報との相関関係の高い撮影条件を前記受信した相関情報に基づいて特定し、この特定した撮影条件を前記設定手段により設定させるとともに、上記撮影手段による撮影を行なう撮影制御手段とをさらに具備したことを特徴とする。 According to a third aspect of the present invention, there is provided a setting means for setting shooting conditions, a shooting means for executing shooting according to the shooting conditions set by the setting means, and a predetermined viewpoint from among image information obtained by shooting with the shooting means. Based on the feature extraction means for extracting the feature information indicating the feature of the image, the shooting condition corresponding to the image information obtained by the shooting means, and the feature obtained by the feature extraction means corresponding to the image information Various shooting conditions obtained by counting the shooting history information from a plurality of imaging devices by the transmission means for transmitting shooting history information associated with the information to the counting external device, and the counting external device And receiving means for receiving correlation information indicating the correlation between various feature information from the external device for tabulation and feature information corresponding to a subject to be newly photographed, and obtaining the acquired feature A shooting control unit that specifies shooting conditions having a high correlation with the information on the basis of the received correlation information, sets the specified shooting conditions by the setting unit, and performs shooting by the shooting unit. It is characterized by that.

請求項4記載の発明は、更に、装置外部から与えられる所定の観点を示す指定情報を入力する入力手段をさらに具備し、上記特徴抽出手段は、上記入力手段で入力した指定情報に基づいて当該画像の特徴を示す特徴情報を抽出することを特徴とする。 The invention described in claim 4 further includes input means for inputting designation information indicating a predetermined viewpoint given from the outside of the apparatus, and the feature extraction means is based on the designation information input by the input means. It is characterized by extracting feature information indicating image features.

請求項5記載の発明は、更に、上記入力手段は、上記指定情報に加えて撮影条件の情報も入力し、上記設定手段は、上記入力手段より入力した情報に基づいて撮影条件を設定することを特徴とする。 According to a fifth aspect of the present invention, the input means also inputs shooting condition information in addition to the designation information, and the setting means sets shooting conditions based on the information input from the input means. It is characterized by.

請求項6記載の発明は、更に、上記送信手段は、当該撮像装置を分類する分類情報を合わせて出力し、上記入力手段は、装置外部から与えられる、上記分類情報に対応した指定情報または撮影条件の情報を入力することを特徴とする。 According to a sixth aspect of the present invention, the transmission means further outputs classification information for classifying the imaging device, and the input means provides designation information or photographing corresponding to the classification information given from outside the device. It is characterized by inputting condition information.

請求項7記載の発明は、撮影条件を設定する設定工程と、この設定工程で設定した撮影条件に従って撮影を実行する撮影工程と、この撮影工程での撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出工程と、上記設定工程で設定した撮影条件と上記特徴抽出工程で得た特徴情報とを対応付けて撮影履歴情報として記憶する記憶工程と、この記憶工程で記憶している複数の撮影履歴情報を集計し、その集計結果を利用してあらたに撮影を行なう際の撮影条件を決定して上記設定工程により設定させるとともに、上記撮影工程による撮影を行なわせる撮影制御工程とを有したことを特徴とする。 According to the seventh aspect of the present invention, there is provided a setting step for setting shooting conditions, a shooting step for performing shooting according to the shooting conditions set in the setting step, and a predetermined viewpoint from image information obtained by shooting in the shooting step. A feature extracting step for extracting feature information indicating the feature of the image based on the image, and a storing step for storing the shooting conditions set in the setting step and the feature information obtained in the feature extracting step in association with each other as shooting history information And a plurality of shooting history information stored in the storage step, and using the counting result, a shooting condition for newly shooting is determined and set by the setting step, and the shooting step And a photographing control step for performing photographing according to the above.

請求項8記載の発明は、撮影条件を設定する設定工程と、この設定工程で設定した撮影条件に従って撮影を実行する撮影工程と、この撮影工程での撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出工程と、上記撮影工程で得た画像情報に対応した上記撮影条件と、該画像情報に対応して上記特徴抽出工程で得た特徴情報とを対応付けた撮影履歴情報を集計用の外部装置へ送信する送信工程と、上記集計用の外部装置によって複数の撮像装置からの撮影履歴情報が集計されることにより得られた各種撮影条件と各種特徴情報との相関関係を示す相関情報を、前記集計用の外部装置より受信する受信工程と、あらたに撮影を行なう撮影対象に対応する特徴情報を取得し、この取得された特徴情報との相関関係の高い撮影条件を前記受信した相関情報に基づいて特定し、この特定した撮影条件を前記設定工程により設定させるとともに、上記撮影工程による撮影を行なう撮影制御工程とを有したことを特徴とする。 The invention described in claim 8 includes a setting step for setting shooting conditions, a shooting step for performing shooting according to the shooting conditions set in the setting step, and a predetermined viewpoint from among image information obtained by shooting in the shooting step. A feature extraction step for extracting feature information indicating the feature of the image based on the image, the shooting condition corresponding to the image information obtained in the shooting step, and the feature obtained in the feature extraction step corresponding to the image information Various shooting conditions obtained by collecting shooting history information from a plurality of imaging devices by the sending step for sending shooting history information associated with information to the counting external device, and the counting external device And receiving the correlation information indicating the correlation between the feature information and the various feature information from the external device for counting, and acquiring the feature information corresponding to the imaging target to be newly captured, and the acquired feature It was identified based on the high imaging condition correlated with broadcast the correlation information thus received, causes set by the specified photographing condition said setting step, and a photographing control step of performing photographing by the photographing step It is characterized by.

請求項9記載の発明は、撮像装置に内蔵されるコンピュータが実行するプログラムであって、撮影条件を設定する設定ステップと、この設定ステップで設定した撮影条件に従って撮影を実行する撮影ステップと、この撮影ステップでの撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出ステップと、上記設定ステップで設定した撮影条件と上記特徴抽出ステップで得た特徴情報とを対応付けて撮影履歴情報として記憶する記憶ステップと、この記憶ステップで記憶している複数の撮影履歴情報を集計し、その集計結果を利用してあらたに撮影を行なう際の撮影条件を決定して上記設定ステップにより設定させるとともに、上記撮影ステップによる撮影を行なわせる撮影制御ステップとをコンピュータに実行させることを特徴とする。 The invention according to claim 9 is a program executed by a computer built in the imaging apparatus, a setting step for setting shooting conditions, a shooting step for executing shooting according to the shooting conditions set in the setting step, Obtained in the feature extraction step of extracting feature information indicating the feature of the image based on a predetermined viewpoint from the image information obtained by photographing in the photographing step, the photographing condition set in the setting step, and the feature extraction step A storage step for associating and storing characteristic information with shooting history information, and a plurality of shooting history information stored in the storage step, and shooting conditions for newly taking a picture using the counting result And a shooting control step for performing shooting in the shooting step. Characterized in that to execute the computer.

請求項10記載の発明は、撮像装置に内蔵されるコンピュータが実行するプログラムであって、撮影条件を設定する設定ステップと、この設定ステップで設定した撮影条件に従って撮影を実行する撮影ステップと、この撮影ステップでの撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出ステップと、上記撮影ステップで得た画像情報に対応した上記撮影条件と、該画像情報に対応して上記特徴抽出ステップで得た特徴情報とを対応付けた撮影履歴情報を集計用の外部装置へ送信する送信ステップと、上記集計用の外部装置によって複数の撮像装置からの撮影履歴情報が集計されることにより得られた各種撮影条件と各種特徴情報との相関関係を示す相関情報を、前記集計用の外部装置より受信する受信ステップと、あらたに撮影を行なう撮影対象に対応する特徴情報を取得し、この取得された特徴情報との相関関係の高い撮影条件を前記受信した相関情報に基づいて特定し、この特定した撮影条件を前記設定ステップにより設定させるとともに、上記撮影手段による撮影を行なう撮影制御ステップとをコンピュータに実行させることを特徴とする。 The invention according to claim 10 is a program executed by a computer built in the imaging apparatus, a setting step for setting shooting conditions, a shooting step for performing shooting according to the shooting conditions set in the setting step, A feature extraction step for extracting feature information indicating the feature of the image based on a predetermined viewpoint from the image information obtained by photographing in the photographing step; and the photographing condition corresponding to the image information obtained in the photographing step; A transmission step of transmitting shooting history information in association with the feature information obtained in the feature extraction step corresponding to the image information to an external device for counting, and a plurality of imaging devices by the external device for counting Correlation information indicating the correlation between various shooting conditions and various feature information obtained by counting shooting history information is obtained from the external device for counting. The reception step for receiving and the feature information corresponding to the subject to be newly photographed are acquired, and the imaging condition having a high correlation with the acquired feature information is specified based on the received correlation information. The photographing condition is set by the setting step, and the computer is caused to execute a photographing control step for photographing by the photographing means .

本発明によれば、撮影した画像の内容から所望の画像を検索するなど、撮影により得た画像データの内容を有効に活用することが可能となるだけでなく、撮影により得た画像から抽出した特徴抽出情報を集計し、その特徴情報を取得することで、あらたな撮影実行時の撮影条件の設定に有効に活用することができる。 According to the present invention, it is possible not only to effectively use the content of image data obtained by photographing, such as searching for a desired image from the content of the photographed image, but also from the image obtained by photographing. By collecting the feature extraction information and acquiring the feature information, the feature extraction information can be effectively used for setting the shooting conditions at the time of new shooting.

以下本発明をコンパクトタイプのデジタルカメラに適用した場合の実施の一形態について図面を参照して説明する。   Hereinafter, an embodiment in which the present invention is applied to a compact digital camera will be described with reference to the drawings.

図1は本発明に係るデジタルカメラ10の主にその外観構成を示すもので、図1(A)が正面図、図1(B)が左側面図、図1(C)が背面図である。   FIG. 1 mainly shows an external configuration of a digital camera 10 according to the present invention. FIG. 1 (A) is a front view, FIG. 1 (B) is a left side view, and FIG. 1 (C) is a rear view. .

このデジタルカメラ10の正面、左端上部に撮影光学系受光窓11が配置される他、同正面の略中央上部にストロボ発光部12、同正面の左端に沿ってグリップ部13が配置される。   A photographing optical system light receiving window 11 is disposed at the front and upper left end of the digital camera 10, a strobe light emitting unit 12 is disposed at substantially the upper center of the front, and a grip unit 13 is disposed along the left end of the front.

また、デジタルカメラ10の上面、右端側には、電源スイッチ14及びシャッタスイッチ15が配置される。   A power switch 14 and a shutter switch 15 are disposed on the upper surface and right end side of the digital camera 10.

図1(B)は、このデジタルカメラ10内部の撮影光学系の構成を示すものである。このデジタルカメラ10は、撮影系に屈折光学系を採用するものとし、上記撮影光学系受光窓11より入射した光像は、ミラー(またはプリズム)16で45°反射されてこのデジタルカメラ10の筐体に平行な光束とされた後、撮影レンズ群17を介した後に撮像素子であるCCD18上で結像される。   FIG. 1B shows the configuration of the photographing optical system inside the digital camera 10. The digital camera 10 employs a refractive optical system as a photographing system, and an optical image incident from the photographing optical system light receiving window 11 is reflected by a mirror (or prism) 16 at 45 ° and is enclosed by the housing of the digital camera 10. After the light beam is made parallel to the body, the light is imaged on the CCD 18 which is an image sensor after passing through the photographing lens group 17.

撮影レンズ群17は、インナーフォーカス方式及びインナーズーム方式を採用しており、撮影光軸に沿って適宜所定のレンズが移動することによりズーム角度及びフォーカス位置を変化させるものとしている。   The photographing lens group 17 employs an inner focus method and an inner zoom method, and the zoom angle and the focus position are changed by appropriately moving a predetermined lens along the photographing optical axis.

また、デジタルカメラ10の背面には、基本モードである撮影モードと再生モードとを切換えるモード切替スイッチ19、ズームスイッチ20、リング状のカーソルキー21、同カーソルキー21の中央に位置するエンターキー22、ディスプレイ切替キー23、メニューキー24の各種操作キーが配置されると共に、バックライト付きのカラー液晶パネルでなる表示部25が配置される。   Further, on the back of the digital camera 10, a mode switch 19 for switching between a photographing mode as a basic mode and a playback mode, a zoom switch 20, a ring-shaped cursor key 21, and an enter key 22 located at the center of the cursor key 21. Various operation keys such as a display switching key 23 and a menu key 24 are arranged, and a display unit 25 made of a color liquid crystal panel with a backlight is arranged.

この表示部25は、撮影モード時には上記CCD18で結像されている画像を他の各種撮影条件の情報等と共にスルー表示する電子ファインダとして機能する一方で、再生モード時には選択した画像を表示するモニタ表示部として機能する。   The display unit 25 functions as an electronic viewfinder for displaying the image formed by the CCD 18 in the photographing mode together with information on various other photographing conditions while displaying the selected image in the reproduction mode. It functions as a part.

また、デジタルカメラ10の筐体底面には、記録媒体であるメモリカード及び電源であるリチウムイオン充電池パックを収納するための収納蓋26が設けられると共に、例えばUSBコネクタによる外部入出力端子27が配設される。   The housing bottom of the digital camera 10 is provided with a storage lid 26 for storing a memory card as a recording medium and a lithium ion rechargeable battery pack as a power source, and an external input / output terminal 27 by a USB connector, for example. Arranged.

図2は、上記デジタルカメラ10に代わる、本実施の形態の他のデジタルカメラ10′の外観構成を例示するものである。図2(A)は左後方からの背面構成を示す図、図2(B)は同背面側の各種媒体収納構成を示す図である。   FIG. 2 illustrates an external configuration of another digital camera 10 ′ according to the present embodiment, which can replace the digital camera 10. FIG. 2A is a diagram showing a rear configuration from the left rear, and FIG. 2B is a diagram showing various medium storage configurations on the rear side.

前面側に撮影レンズ部31、マイクロホン32を備えるデジタルカメラ10′は、その左側面にバックライト付きのカラー液晶パネルでなる表示部33を備える。この表示部33は、その基部が互いに直交する2軸に沿ってそれぞれ所定角度範囲内で回動可能となることで、非使用時には画面をデジタルカメラ10′内面側に向けて収納可能となると共に、使用時には引き起こしてユーザの好みに応じ、図2(a)に示す如く画面を任意の方向に向けることが可能となる。   A digital camera 10 ′ having a photographing lens unit 31 and a microphone 32 on the front side includes a display unit 33 formed of a color liquid crystal panel with a backlight on the left side. The display unit 33 is capable of being stored with the screen facing the inner surface of the digital camera 10 ′ when not in use when the base part can be rotated within a predetermined angle range along two axes orthogonal to each other. It is possible to turn the screen in an arbitrary direction as shown in FIG.

この表示部33も、上記デジタルカメラ10の表示部33と同様に撮影モード時には電子ファインダとして、再生モード時にはモニタ表示部として機能する。   Similarly to the display unit 33 of the digital camera 10, the display unit 33 also functions as an electronic viewfinder in the shooting mode and as a monitor display unit in the playback mode.

デジタルカメラ10′の背面には、その上側より、スピーカ34、ズームスイッチ35、撮影スイッチ36、リング状のカーソルスイッチ37、該カーソルスイッチ37の中央に位置した再生スイッチ38、電源/モード切替スイッチ39、外部入出力端子40,41が配設される。   From the upper side of the digital camera 10 ′, a speaker 34, a zoom switch 35, a shooting switch 36, a ring-shaped cursor switch 37, a playback switch 38 positioned at the center of the cursor switch 37, and a power / mode switch 39 External input / output terminals 40 and 41 are provided.

これらのうち、スピーカ34を除く各スイッチ35〜39、及び外部入出力端子40,41は、デジタルカメラ10′の筐体背面側を形成する開閉蓋42の外面に形成されるもので、この開閉蓋42は図2(B)に示すようにデジタルカメラ10′本体に対して片開きで開閉することができる。この開閉蓋42を開けた状態で、図示する如く共に記録媒体であるハードディスクユニット43とメモリカード44とをそれぞれ所定の位置に着脱可能となる。   Among these, the switches 35 to 39 excluding the speaker 34 and the external input / output terminals 40 and 41 are formed on the outer surface of the opening / closing lid 42 that forms the housing rear side of the digital camera 10 ′. As shown in FIG. 2B, the lid 42 can be opened and closed with respect to the main body of the digital camera 10 ′. With the open / close lid 42 opened, the hard disk unit 43 and the memory card 44, which are both recording media, can be attached and detached at predetermined positions as shown in the figure.

図3は、上記デジタルカメラ10の概念的なシステム構成を示すものである。同図で、上記電源スイッチ14、シャッタスイッチ15、モード切替スイッチ19、ズームスイッチ20、カーソルキー21、エンターキー22、ディスプレイ切替キー23、及びメニューキー24を含む操作入力部51でのキー操作信号が撮影・記録制御部52、撮影条件設定部53、及び特徴抽出・記述設定部54に与えられる。   FIG. 3 shows a conceptual system configuration of the digital camera 10. In the figure, a key operation signal at an operation input unit 51 including the power switch 14, shutter switch 15, mode switch 19, zoom switch 20, cursor key 21, enter key 22, display switch key 23, and menu key 24. Is provided to the photographing / recording control unit 52, the photographing condition setting unit 53, and the feature extraction / description setting unit 54.

撮影・記録制御部52は、撮影部55、信号処理部56、画像データメモリ57、特徴抽出部58に対して撮影条件や動作タイミング等を制御することで撮影とその撮影に伴って得られる画像データの記録とを制御する。   The shooting / recording control unit 52 controls shooting conditions, operation timing, and the like for the shooting unit 55, the signal processing unit 56, the image data memory 57, and the feature extraction unit 58, and shooting and images obtained along with the shooting. Control data recording.

撮影部55は、上記撮影レンズ群17及びCCD18を含み、撮影によるデジタル値の画像データを得て信号処理部56へ出力する。   The photographing unit 55 includes the photographing lens group 17 and the CCD 18, obtains digital value image data obtained by photographing, and outputs it to the signal processing unit 56.

信号処理部56は、撮影部55から与えられる画像データに所定のプロセス処理等を施した上でバッファメモリとして機能する画像データメモリ57へ出力する。   The signal processing unit 56 performs predetermined process processing or the like on the image data supplied from the imaging unit 55 and outputs the image data to the image data memory 57 that functions as a buffer memory.

この画像データメモリ57に保持された画像データは必要により上記特徴抽出部58と画像・動画像圧縮/符号化部59に読出される。   The image data held in the image data memory 57 is read to the feature extraction unit 58 and the image / moving image compression / encoding unit 59 as necessary.

画像・動画像圧縮/符号化部59は、例えば画像データが静止画像であればJPEG、動画像であればMPEGの規格に従ってデータ圧縮と符号化等を行ない、得た符号化データとしての画像データを多重化部60及び上記特徴抽出部58へ出力する。   For example, if the image data is a still image, the image / moving image compression / encoding unit 59 performs data compression and encoding according to the JPEG standard, and if the image data is a moving image, the image data as the obtained encoded data. Are output to the multiplexing unit 60 and the feature extraction unit 58.

上記特徴抽出・記述設定部54は、操作入力部51でのキー操作信号と上記撮影条件設定部53から与えられる撮影条件とに従って特徴抽出を行なう要素とその記述方法とを設定し、上記特徴抽出部58及び特徴データ符号化部61へ送出する。   The feature extraction / description setting unit 54 sets elements for performing feature extraction and a description method thereof according to the key operation signal from the operation input unit 51 and the shooting conditions given from the shooting condition setting unit 53, and extracts the features. To the unit 58 and the feature data encoding unit 61.

特徴抽出部58は、上記特徴抽出・記述設定部54で設定された特徴情報に基づき、上記画像・動画像圧縮/符号化部59が出力するデータ圧縮を施した画像データに対して特徴抽出処理を行なって処理結果である「特徴抽出A」を得る一方で、上記画像データメモリ57が出力する、データ圧縮前の画像データに対しても特徴抽出処理を行なって処理結果である「特徴抽出B」を得る、というように特徴抽出処理を特徴抽出・記述設定部54から設定される特徴情報の数に応じて実行し、それらの処理結果を特徴データ符号化部61、比較回路62へ出力する。   Based on the feature information set by the feature extraction / description setting unit 54, the feature extraction unit 58 performs feature extraction processing on the image data subjected to data compression output from the image / moving image compression / encoding unit 59. To obtain “feature extraction A” as a processing result, while performing feature extraction processing on the image data before data compression output from the image data memory 57 to obtain “feature extraction B” as a processing result. The feature extraction process is executed according to the number of feature information set from the feature extraction / description setting unit 54, and the processing results are output to the feature data encoding unit 61 and the comparison circuit 62. .

特徴データ符号化部61は、特徴抽出部58で抽出された特徴量のデータを符号化して特徴記述データとした上で上記多重化部60及び更新記録制御部63へ出力する。   The feature data encoding unit 61 encodes the feature amount data extracted by the feature extraction unit 58 into feature description data, and outputs the feature description data to the multiplexing unit 60 and the update recording control unit 63.

多重化部60は、画像・動画像圧縮/符号化部59から与えられる画像データと、特徴データ符号化部61から与えられる特徴記述データとを多重化して関連付けた上でメモリ制御部64へ出力する。 The multiplexing unit 60 multiplexes and associates the image data provided from the image / video compression / encoding unit 59 and the feature description data provided from the feature data encoding unit 61, and outputs them to the memory control unit 64. To do.

メモリ制御部64は、このデジタルカメラ10の記録媒体である画像データメモリ65に画像データと特徴記述データとを関連付けて最大その容量に応じた分だけ記録する。   The memory control unit 64 records the image data and the feature description data in the image data memory 65 that is a recording medium of the digital camera 10 in association with the maximum capacity.

この画像データメモリ65に記憶された画像データ及び特徴記述データは、必要により外部入出力部66によってこのデジタルカメラ10の外部の装置、例えば図示しないパーソナルコンピュータ等に読出される。 The image data and feature description data stored in the image data memory 65 are read by an external input / output unit 66 to an external device of the digital camera 10, for example, a personal computer (not shown) if necessary.

上記更新記録制御部63は、特徴データ符号化部61からの特徴記述データを用い、すでに特徴記述データに基づいて撮影シーンと撮影条件とを記憶する統計記憶部67の内容を更新設定する。   The update recording control unit 63 uses the feature description data from the feature data encoding unit 61 to update and set the contents of the statistical storage unit 67 that already stores the shooting scene and shooting conditions based on the feature description data.

この統計記憶部67の記憶内容は、上記比較回路62及び上記撮影条件設定部53へ適宜読出される。   The stored contents of the statistical storage unit 67 are read out as appropriate to the comparison circuit 62 and the photographing condition setting unit 53.

比較回路62は、特徴抽出部58から与えられる(撮影により得た)画像データから抽出した特徴量のデータと統計記憶部67に記憶される特徴量のデータとを比較し、その比較結果を上記撮影条件設定部53へ出力する。   The comparison circuit 62 compares the feature amount data extracted from the image data (obtained by photographing) given from the feature extraction unit 58 with the feature amount data stored in the statistical storage unit 67, and the comparison result is described above. The image is output to the shooting condition setting unit 53.

また、上記画像データメモリ65及び統計記憶部67の各記憶内容はそれぞれ、外部入出力部66により外部から入力される内容によって適宜書き換えられる。   The contents stored in the image data memory 65 and the statistics storage section 67 are appropriately rewritten according to the contents input from the outside by the external input / output section 66.

しかるに、書き換えられた画像データメモリ65の内容は、再生制御部68からの指示を受けたメモリ制御部64により取り出され、多重分離部69により画像データと特徴記述データとに分離されて、画像データは画像・動画像伸張/復号化部70へ、特徴記述データは特徴データ複合化部71へそれぞれ送出する。   However, the contents of the rewritten image data memory 65 are taken out by the memory control unit 64 that has received an instruction from the reproduction control unit 68, separated into image data and feature description data by the demultiplexing unit 69, and image data Are sent to the image / moving image decompression / decoding unit 70 and the feature description data are sent to the feature data combination unit 71, respectively.

画像・動画像伸張/復号化部70は、上記画像・動画像圧縮/符号化部59でのデータ圧縮とは全く逆の手順で、データ圧縮、符号化されている画像データを伸長して復号化し、上記再生制御部68へ出力する。   The image / moving image decompressing / decoding unit 70 decompresses and decodes the image data that has been compressed and encoded in the same procedure as the data compression in the image / moving image compression / encoding unit 59. And output to the reproduction control unit 68.

この再生制御部68は、送られてきた画像データを画像データメモリ57に一旦記憶させた上でこれを読出して表示制御部72へ出力させる。   The reproduction control unit 68 temporarily stores the sent image data in the image data memory 57, reads it, and outputs it to the display control unit 72.

表示制御部72は、上記再生制御部68からの制御の下に、画像データメモリ57から読出された画像データから表示データを作成し、表示部73を表示駆動して当該画像を表示させる。この表示部73は、上記表示部25とその駆動回路とで構成する。   Under the control of the reproduction control unit 68, the display control unit 72 creates display data from the image data read from the image data memory 57, and drives the display unit 73 to display the image. The display unit 73 includes the display unit 25 and its drive circuit.

次に図4により上記デジタルカメラ10の具体的な回路構成を、外部機器との接続等も併せて例示する。同図は、上述した図3の概念的なシステム構成とは多少接続関係等が異なる。 Next, FIG. 4 illustrates a specific circuit configuration of the digital camera 10 together with connections to external devices. This figure is slightly different from the conceptual system configuration of FIG.

同図で、撮影レンズ群17はその一部のレンズがレンズドライバ80に駆動されて光軸中の位置を移動させ、撮影光像をCCD18に結像させる。このCCD18で得られる画像信号が映像信号処理部81に送られ、デジタル化された後に各種プロセス処理を経て画像メモリ82及び制御回路83に送られる。   In the drawing, a part of the photographing lens group 17 is driven by a lens driver 80 to move a position in the optical axis, and a photographing light image is formed on the CCD 18. The image signal obtained by the CCD 18 is sent to the video signal processing unit 81, digitized, and sent to the image memory 82 and the control circuit 83 through various process processes.

また、音声録音時及び動画撮影時にはマイク84により入力された音声信号がアンプ85で増幅された後にA/D変換回路86でデジタル化され、音声メモリ87に保持される。   Also, during voice recording and moving image shooting, a voice signal input from the microphone 84 is amplified by the amplifier 85, digitized by the A / D conversion circuit 86, and held in the voice memory 87.

制御回路83は、画像メモリ82に保持された画像データ及び音声メモリ87に保持された音声データを読出し、圧縮符号化・伸長復号化88で所定のデータ圧縮処理を施した後にメモリカード等の着脱自在な記録媒体89に記録される。   The control circuit 83 reads out the image data held in the image memory 82 and the audio data held in the audio memory 87, performs predetermined data compression processing by compression encoding / decompression decoding 88, and then attaches / detaches the memory card or the like. It is recorded on a free recording medium 89.

一方で、画像メモリ82は上記画像メモリ82から読出した画像データ及び音声メモリ87から読出した音声データを特徴抽出/認識処理部90へも送出する。   On the other hand, the image memory 82 also sends the image data read from the image memory 82 and the sound data read from the sound memory 87 to the feature extraction / recognition processing unit 90.

この特徴抽出/認識処理部90は、シーン・撮影条件の統計データメモリ91に記憶される内容に基づいて画像データ、音声データの特徴抽出を行ない、抽出結果のデータファイルを上記圧縮符号化・伸長復号化88に送出して、元の画像データ、音声データに併せて記録媒体89に記録させる。   The feature extraction / recognition processing unit 90 performs feature extraction of image data and audio data based on the content stored in the scene / shooting condition statistical data memory 91, and compresses / decompresses the extracted data file. The data is sent to the decryption 88 and recorded on the recording medium 89 together with the original image data and audio data.

シーン・撮影条件の統計データメモリ91の内容は、適宜上記制御回路83により更新設定される。   The contents of the scene / photographing condition statistical data memory 91 are appropriately updated by the control circuit 83.

制御回路83は、プログラムメモリ92に固定的に記憶されている動作プログラムに基づき、データメモリ93に適宜必要なデータの書込み/読出しを行ないながら画像と音声の記録/再生動作を含むこのデジタルカメラ10全体の制御動作を実行するものであり、他に撮影制御部94、表示制御部95、入力回路96、外部入出力インタフェース97、ハードディスクインタフェース(HDD・IF)98、及びD/A変換回路99とも接続される。   The control circuit 83 is based on the operation program fixedly stored in the program memory 92, and performs the recording / reproducing operation of the image and sound while writing / reading necessary data to / from the data memory 93 as appropriate. In addition to the imaging control unit 94, the display control unit 95, the input circuit 96, the external input / output interface 97, the hard disk interface (HDD / IF) 98, and the D / A conversion circuit 99. Connected.

撮影制御部94は、測距センサ100で得られるセンサ出力から測光/測距部101が出力する測距データと制御回路83からの制御信号とに基づき、上記レンズドライバ80、CCD18、及び映像信号処理部81での撮影動作を制御する。   The photographing control unit 94 is based on the distance measurement data output by the photometry / ranging unit 101 from the sensor output obtained by the distance measuring sensor 100 and the control signal from the control circuit 83, and the lens driver 80, the CCD 18, and the video signal. The photographing operation in the processing unit 81 is controlled.

表示制御部95は、制御回路83より与えられる表示データに基づいて上記表示部25を表示駆動することで、この表示部25を撮影時には電子ファインダとして、再生時には表示モニタとして機能させる。   The display control unit 95 drives the display unit 25 based on the display data supplied from the control circuit 83, thereby causing the display unit 25 to function as an electronic viewfinder during photographing and as a display monitor during reproduction.

入力回路96は、上記電源スイッチやシャッタスイッチ等の各種キースイッチからなる操作入力部104からの操作信号を受付けて制御回路83に送出する。   The input circuit 96 receives an operation signal from the operation input unit 104 including various key switches such as the power switch and the shutter switch and sends the operation signal to the control circuit 83.

外部入出力インタフェース97は、上記外部入出力端子27と制御回路83との間で各種規格に従ったデータ等を送受する。 The external input / output interface 97 transmits and receives data according to various standards between the external input / output terminal 27 and the control circuit 83.

ハードディスクインタフェース98は、上記図2で示したデジタルカメラ10′のように、記録媒体としてメモリカードのみならずハードディスクユニット43を装着する場合に制御回路83との間での仲介を行なうものであり、装着されたハードディスクユニット43は上記記録媒体89の容量を拡大するものとして機能する。   The hard disk interface 98 mediates between the control circuit 83 when the hard disk unit 43 is mounted as well as a memory card as a recording medium, like the digital camera 10 'shown in FIG. The mounted hard disk unit 43 functions as an enlargement of the capacity of the recording medium 89.

D/A変換回路99は、音声データの再生時に、制御回路83から与えられるデジタルL音声データをアナログ化するもので、出力した音声信号はアンプ102で適宜増幅された後にデジタルカメラ10の背面側に配置されたスピーカ103により拡声放音される。   The D / A conversion circuit 99 converts the digital L audio data supplied from the control circuit 83 into analog during reproduction of the audio data. The output audio signal is appropriately amplified by the amplifier 102 and then the back side of the digital camera 10. A loudspeaker is emitted by the loudspeaker 103 arranged in the position.

なお、上記外部入出力端子27には、例えば図示する如く外部機器としてのパーソナルコンピュータ(PC)110がライン接続される。 For example, a personal computer (PC) 110 as an external device is line-connected to the external input / output terminal 27 as shown in the figure.

このパーソナルコンピュータ110は、予めこのデジタルカメラ10用のドライバソフトウェアをインストールしておくことでデジタルカメラ10との接続時に、記録媒体89に記録されている画像/音声データと特徴記述データ等を自動的にアップロードすることが可能となる他、上記シーン・撮影条件の統計データメモリ91の記憶内容も適宜更新設定可能となる。   The personal computer 110 automatically installs the driver software for the digital camera 10 in advance, and automatically connects image / audio data and feature description data recorded on the recording medium 89 when connected to the digital camera 10. In addition, the contents stored in the statistical data memory 91 of the above scene / shooting conditions can be appropriately updated and set.

すなわち、パーソナルコンピュータ110は、それぞれゲートウェイ(GW)を介してインターネット111経由で、例えばこのデジタルカメラ10のメーカが運営するサーバ装置112と接続し、デジタルカメラ10用のバージョンアップ用ファームウェアやシーン・撮影条件の統計データ等、各種データをダウンロードし、デジタルカメラ10に更新設定させる。   That is, the personal computer 110 is connected to, for example, a server device 112 operated by the manufacturer of the digital camera 10 via the Internet 111 via a gateway (GW), and upgrade firmware for the digital camera 10 or scene / photographing. Various data such as statistical data of conditions are downloaded, and the digital camera 10 is updated and set.

サーバ装置112では、インターネット111を介して予めユーザ会員登録した不特定多数のパーソナルコンピュータから送られてくる画像データと特徴抽出データ等を画像データベース(DB)113に蓄積記憶し、デジタルカメラの機種など各種の分類に基づいた統計データを算出して記憶しておき、その内容を当該ユーザ会員の所有するパーソナルコンピュータに配信する。   In the server device 112, image data and feature extraction data sent from an unspecified number of personal computers registered in advance as user members via the Internet 111 are stored in an image database (DB) 113, and the model of the digital camera, etc. Statistical data based on various classifications is calculated and stored, and the contents are distributed to a personal computer owned by the user member.

次いで上記実施の形態の動作について説明する。   Next, the operation of the above embodiment will be described.

図5乃至図7は、上記デジタルカメラ10での電源投入後からの全般的な処理内容を示すものである。その当初には、まず基本モードが撮影モードとなっているか否かをモード切替スイッチ19の操作位置により判断する(ステップA01)。   5 to 7 show general processing contents after the power is turned on in the digital camera 10. Initially, it is first determined from the operation position of the mode changeover switch 19 whether or not the basic mode is the photographing mode (step A01).

撮影モードである場合には、撮影モードを選択した上で(ステップA02)、次にオート撮影モードまたはシーン識別モードが設定されているか否かを前回電源を切断した時点での記憶設定の内容により判断する(ステップA03)。   In the case of the shooting mode, after selecting the shooting mode (step A02), whether or not the auto shooting mode or the scene identification mode is set next is determined according to the contents of the memory setting at the time when the power is turned off last time. Judgment is made (step A03).

オート撮影モードまたはシーン識別モードが設定されていると判断した場合には、直ちに測光処理と前回電源を切断した時点でのズーム位置に復帰する処理とを実行した上で(ステップA04,A05)、測光処理により得た被写体輝度とズーム処理によるレンズ焦点距離等を検出する(ステップA06)。   When it is determined that the auto shooting mode or the scene identification mode is set, the photometry process and the process of returning to the zoom position at the time when the power was previously turned off are immediately executed (steps A04 and A05). The subject brightness obtained by the photometric process and the lens focal length by the zoom process are detected (step A06).

次いで、その時点で得られる画像データから画像の特徴量を抽出する(ステップA07)。この特徴量の抽出処理の詳細な内容については、後に詳述する。   Next, the feature amount of the image is extracted from the image data obtained at that time (step A07). Detailed contents of the feature amount extraction processing will be described later.

抽出した特徴量と上記シーン・撮影条件の統計データメモリ91に記憶される撮影履歴の統計データとにより、撮影シーンを自動選択する(ステップA08)。   A shooting scene is automatically selected based on the extracted feature value and the shooting history statistical data stored in the scene / shooting condition statistical data memory 91 (step A08).

なお、上記ステップA03でオート撮影モードまたはシーン識別モードが設定されていないと判断した場合には、次いで予め設定された複数のシーンプログラムのうちの1つを選択するシーン別撮影モードが設定されているか否かを判断する(ステップA09)。   If it is determined in step A03 that the auto shooting mode or the scene identification mode is not set, then a scene-specific shooting mode for selecting one of a plurality of preset scene programs is set. It is determined whether or not there is (step A09).

ここで、シーン別撮影モードは設定されていないと判断した場合には、その他のモードでの処理を行なうが(ステップA26)、本発明に係る内容とは関連がないためにここではその説明を省略するものとする。   Here, when it is determined that the scene-specific shooting mode is not set, processing in other modes is performed (step A26). However, since it is not related to the contents according to the present invention, the description thereof will be given here. Shall be omitted.

一方、上記ステップA09でシーン別撮影モードが設定されていると判断した場合には、ユーザの操作に応じて撮影シーンを選択する処理を実行した上で(ステップA10)、その選択した撮影シーンの内容に従ってあらためて測光処理とズーム処理とを実行し(ステップA11,A12)、測光処理により得た被写体輝度とズーム処理によるレンズ焦点距離等を検出する(ステップA13)。   On the other hand, if it is determined in step A09 that the scene-specific shooting mode is set, a process for selecting a shooting scene is executed in accordance with a user operation (step A10), and the selected shooting scene is selected. The photometric process and the zoom process are executed again according to the contents (steps A11 and A12), and the subject brightness obtained by the photometric process and the lens focal length by the zoom process are detected (step A13).

上記ステップA08またはA13の処理後、その時点で選択されている撮影シーンに対応する撮影条件データをシーン・撮影条件の統計データメモリ91から読出す(ステップA14)。   After the processing of step A08 or A13, the shooting condition data corresponding to the shooting scene selected at that time is read from the scene / shooting condition statistical data memory 91 (step A14).

この読出した撮影条件のデータに従い、AF(自動合焦)を行なう範囲を設定した上でフォーカスエリアの選択も含む当該範囲内でのAF処理を実行する(ステップA15)。   In accordance with the read shooting condition data, an AF (automatic focus) range is set, and AF processing within the range including selection of the focus area is executed (step A15).

次に選択された撮影シーンに応じて露出条件、ホワイトバランス(WB)、ストロボ発光部12の発光条件などの撮影条件を設定する(ステップA16)。   Next, shooting conditions such as exposure conditions, white balance (WB), and light emission conditions of the strobe light emitting unit 12 are set according to the selected shooting scene (step A16).

こうしてストロボの発光条件を除き、設定した撮影条件上でCCD18を介して得られるその時点の画像データを撮影条件の情報と共に表示部25にてスルー表示しながら(ステップA17)、シャッタスイッチ15による撮影指示の操作または他のキースイッチ操作があるのを待機する(ステップA18)。   Except for the flash emission conditions in this manner, the current image data obtained through the CCD 18 under the set shooting conditions is displayed through on the display unit 25 together with the shooting condition information (step A17), and shooting by the shutter switch 15 is performed. It waits for an instruction operation or another key switch operation (step A18).

ここで、シャッタスイッチ15以外のキースイッチが操作された場合には、その操作されたキースイッチに応じたキー処理を行ない(ステップA24)、そのキー処理結果に応じた表示処理を行なった上で(ステップA25)、操作されたキーに応じた処理位置に復帰する。   Here, when a key switch other than the shutter switch 15 is operated, key processing corresponding to the operated key switch is performed (step A24), and display processing corresponding to the key processing result is performed. (Step A25), the process returns to the processing position corresponding to the operated key.

また、上記ステップA18でシャッタスイッチ15が操作されたと判断すると、その操作に対応して上記設定した条件でストロボを発光処理するのと同期して撮影処理を実行し(ステップA19)、撮影により得た画像データを圧縮符号化・伸長復号化88でデータ圧縮、符号化してこのデジタルカメラ10の記録媒体89に記録する(ステップA20)
If it is determined in step A18 that the shutter switch 15 has been operated, a shooting process is executed in synchronization with the light emission processing of the strobe in accordance with the set condition corresponding to the operation (step A19). The image data is compressed and encoded by the compression encoding / decompression decoding 88 and recorded on the recording medium 89 of the digital camera 10 (step A20).
.

併せて、特徴抽出/認識処理部90でデータ圧縮前の画像データから特徴データを抽出し、撮影条件の特徴データと共に元の画像データに関連付け、具体的には識別子は別にして同一のファイル名を付与するようにして記録媒体89に記録する(ステップA21)。   At the same time, the feature extraction / recognition processing unit 90 extracts the feature data from the image data before compression, and associates it with the original image data together with the feature data of the shooting conditions. Specifically, the same file name apart from the identifier Is recorded on the recording medium 89 (step A21).

その後、撮影により記録した画像データと撮影条件等の情報とを表示部25にて一定時間、例えば2秒間だけレビュー表示する(ステップA22)。   Thereafter, the image data recorded by shooting and information such as shooting conditions are reviewed and displayed on the display unit 25 for a predetermined time, for example, 2 seconds (step A22).

最後に、撮影シーンと被写体距離、レンズ焦点距離、露出条件、ホワイトバランス設定値、ストロボ発光条件などの特徴量、撮影条件等の履歴データをシーン・撮影条件の統計データメモリ91に追加記憶した上で、静止画像と動画、音声メモ等の撮影モード別に再度集計処理し(ステップA23)、以上で撮影に係る一連の処理を終えたものとして、次の撮影に備えるべく上記ステップA18からの処理に戻る。   Finally, history data such as shooting scene and subject distance, lens focal length, exposure condition, white balance setting value, strobe emission condition, and other feature quantities, shooting conditions, and the like are additionally stored in the scene / shooting condition statistical data memory 91. Then, the totalization processing is again performed for each shooting mode such as still images, moving images, and voice memos (step A23), and the processing from step A18 is performed to prepare for the next shooting, assuming that a series of processing related to shooting has been completed. Return.

また、上記ステップA01で電源投入当初に基本モードが撮影モードではないと判断した場合には、次いで外部機器としてのパーソナルコンピュータ110との通信を行なう通信モードであるか否かを判断する(ステップA27)。   If it is determined in step A01 that the basic mode is not the shooting mode when the power is turned on, it is then determined whether or not the communication mode is for communication with the personal computer 110 as an external device (step A27). ).

ここで該通信モードでもないと判断した場合には、その他のモードでの処理を行なうが(ステップA26)、本発明に係る内容とは関連がないためにここではその説明を省略するものとする。   If it is determined that the communication mode is not selected, processing in another mode is performed (step A26). However, the description is omitted here because it is not related to the contents of the present invention. .

また、上記ステップA28で通信モードであると判断した場合には、当該部位武器機能パーソナルコンピュータ110等との同期確率等を含む接続処理を行なった上で(ステップA28)、認証処理を行なう(ステップA29)。   If it is determined in step A28 that the communication mode is selected, connection processing including synchronization probability with the part weapon function personal computer 110 or the like is performed (step A28), and then authentication processing is performed (step A28). A29).

この認証処理としては、パーソナルコンピュータ110側がデジタルカメラ10の機種名、製造番号等のデータで予め登録されている内容により真正性判断を行なう。   In this authentication process, the personal computer 110 determines the authenticity based on the contents registered in advance with data such as the model name and serial number of the digital camera 10.

上記認証処理を経てデータの送受が許可されると、新規に記録媒体89に記録された画像データとその特徴量データとを読出し、外部入出力端子27を介してパーソナルコンピュータ110側の予め設定されているアルバム領域に送信する(ステップA30)。   When transmission / reception of data is permitted through the above authentication process, the image data newly recorded on the recording medium 89 and its feature data are read out and set in advance on the personal computer 110 side via the external input / output terminal 27. Is transmitted to the current album area (step A30).

次いで、このパーソナルコンピュータ110がその時点でインターネット111経由でサーバ装置112とも接続しているか否かを判断する(ステップA31)。   Next, it is determined whether or not the personal computer 110 is currently connected to the server device 112 via the Internet 111 (step A31).

このとき、サーバ装置112と接続されていないと判断した場合には、以上でこのパーソナルコンピュータ110との接続を終了するものとして設定処理を実行し(ステップA38)、上記ステップA01からの処理に戻る。   At this time, if it is determined that the connection with the server device 112 is not established, the setting process is executed to terminate the connection with the personal computer 110 (step A38), and the process returns to step A01. .

また、上記ステップA31でパーソナルコンピュータ110がその時点でサーバ装置112と接続されていると判断した場合には、次いで事前のユーザ設定により撮影履歴の収集を許可する状態となっているか否かを判断する(ステップA32)。   If it is determined in step A31 that the personal computer 110 is currently connected to the server device 112, it is then determined whether or not it is in a state of permitting collection of shooting histories according to prior user settings. (Step A32).

ここで許可する状態となっていると判断した場合にのみ、上述した撮影情報や撮影履歴情報を暗号化してパーソナルコンピュータ110経由でサーバ装置112へ送信する(ステップA33)。   Only when it is determined that the state is permitted here, the above-described photographing information and photographing history information are encrypted and transmitted to the server device 112 via the personal computer 110 (step A33).

その後、サーバ装置112から送られてくる当該デジタルカメラ10用の制御ソフトウェアの更新プログラムデータを受信し(ステップA34)、受信した内容によりプログラムメモリ92の更新設定処理を行なう(ステップA35)。   Thereafter, the update program data of the control software for the digital camera 10 sent from the server device 112 is received (step A34), and update setting processing of the program memory 92 is performed according to the received contents (step A35).

次いでシーン・撮影条件の統計データメモリ91に記憶している統計データの更新分をサーバ装置112から受信し(ステップA36)、受信した内容により統計データメモリ91の更新設定処理を行なう(ステップA37)。   Next, an update of the statistical data stored in the statistical data memory 91 of the scene / shooting condition is received from the server device 112 (step A36), and update setting processing of the statistical data memory 91 is performed according to the received content (step A37). .

以上でこのパーソナルコンピュータ110との接続を終了するものとして設定処理を実行し(ステップA38)、上記ステップA01からの処理に戻る。   As described above, the setting process is executed to end the connection with the personal computer 110 (step A38), and the process returns to the process from step A01.

次に、このデジタルカメラ10において各種設定を行なう設定モード時の動作について、図8及び図9のフローチャートと、図10乃至図12の操作画面例とを用いて説明する。   Next, the operation in the setting mode for making various settings in the digital camera 10 will be described with reference to the flowcharts of FIGS. 8 and 9 and the operation screen examples of FIGS.

設定モードは、上記メニューキー24とカーソルキー21の上または下方向のキー操作により選択するもので、その処理当初に設定モードが設定されているか否かを確認のために判断し(ステップB01)、設定されていない場合にはその他のモードでの処理を行なうが(ステップB02)、本発明に係る内容とは関連がないためにここではその説明を省略するものとする。   The setting mode is selected by operating the menu key 24 and the cursor key 21 up or down, and it is determined to confirm whether or not the setting mode is set at the beginning of the processing (step B01). If it is not set, processing in other modes is performed (step B02), but since it is not related to the contents according to the present invention, the description thereof is omitted here.

上記ステップB01で設定モードが設定されていることを確認すると、次いで特徴抽出の設定モードであるか否かを判断する(ステップB03)。   If it is confirmed in step B01 that the setting mode is set, it is then determined whether or not it is the feature extraction setting mode (step B03).

ここでも、特徴抽出以外の設定モード、例えば画像サイズや画質の設定を行なう場合についてはそれぞれそのモードでの処理を行なうが(ステップB04)、本発明に係る内容とは関連がないためにここではその説明を省略するものとする。   In this case as well, for setting modes other than feature extraction, for example, when setting the image size and image quality, the processing is performed in each mode (step B04). The description will be omitted.

しかして、特徴抽出の設定モードであると判断すると、設定状態の表示など、設定モードでの表示処理を行なう(ステップB05)。   If it is determined that the setting mode is the feature extraction setting mode, display processing in the setting mode such as display of the setting state is performed (step B05).

図10(A)は、表示部25での「特徴抽出・識別」の設定画面を例示するもので、その先頭に位置する「抽出被写体にAF」なる項目名が併せて表示されている状態を示す。   FIG. 10A illustrates a setting screen for “feature extraction / identification” on the display unit 25, and shows a state in which the item name “AF on extracted subject” located at the head is also displayed. Show.

このような表示状態から、メニューキー24の上または下方向のキーとエンターキー22との操作によって、「特徴抽出による撮影方法の選択」「特徴データの記録の設定」「特徴データの選択」「特徴抽出方法の選択」「特徴データの記述様式の選択」「識別する被写体の選択」のいずれかであるかを順次判断する(ステップB06〜B11)。   From such a display state, by operating the up or down key of the menu key 24 and the enter key 22, "selection of photographing method by feature extraction", "setting of characteristic data recording", "selection of characteristic data", " It is sequentially determined whether the selection is “selection of feature extraction method”, “selection of description format of feature data”, or “selection of subject to be identified” (steps B06 to B11).

選択された項目が「特徴抽出による撮影方法の選択」であった場合、ステップB06でこれを判断し、操作に応じて特徴抽出するか否か、また特徴抽出による撮影処理の種別を選択する(ステップB12)。   If the selected item is “selection of shooting method by feature extraction”, this is determined in step B06, and whether or not the feature is extracted according to the operation, and the type of shooting processing by feature extraction is selected ( Step B12).

図10(B)は当該項目中のさらに各種小項目を例示するもので、ここでは「(特徴抽出の)OFF(抽出しない)」「被写体の特徴記録」「被写体を識別・分類」「撮影シーンを自動選択」「抽出被写体にAF」「抽出被写体を追尾」‥‥「抽出個数をカウント」等の項目名を例にとって列挙している。   FIG. 10B illustrates various sub-items in the item. Here, “(feature extraction) OFF (not extracted)” “subject feature recording” “subject identification / classification” “photographing scene” “Automatically select”, “AF on extracted subject”, “Track extracted subject”,...

また、選択された項目が「特徴データの記録の設定」であった場合、ステップB07でこれを判断し、操作に応じて特徴データを付加して記録するか否かを設定する(ステップB13)。   If the selected item is “feature data recording setting”, this is determined in step B07, and whether or not characteristic data is added and recorded according to the operation is set (step B13). .

また、選択された項目が「特徴データの選択」であった場合、ステップB08でこれを判断し、操作に応じて、抽出したい特徴項目または特徴量を選択した上で(ステップB14)、それら選択された特徴項目、特徴量に基づいて、特徴抽出方法を選択する(ステップB15)。   If the selected item is “selection of feature data”, this is determined in step B08, and the feature item or feature quantity to be extracted is selected in accordance with the operation (step B14). A feature extraction method is selected on the basis of the feature item and the feature amount thus obtained (step B15).

また、選択された項目が「特徴抽出方法の選択」であった場合、ステップB09でこれを判断し、操作に応じて、オートまたはカスタム設定の特徴抽出方法を選択する(ステップB16)。   If the selected item is “selection of feature extraction method”, this is determined in step B09, and an auto or custom setting feature extraction method is selected according to the operation (step B16).

図11(A)は、この「特徴抽出方法」を選択している状態を示すものであり、この項目を選択することでさらに図11(B)に示すように「撮影シーン」や「色の抽出」「輪郭の抽出」「テクスチャ抽出」「動きの抽出」「配置の抽出」等、各種詳細なカスタム設定を行なうことができる点を例示している。   FIG. 11A shows a state in which this “feature extraction method” is selected, and by selecting this item, as shown in FIG. This example illustrates that various detailed custom settings such as extraction, contour extraction, texture extraction, motion extraction, and arrangement extraction can be performed.

また、選択された項目が「特徴データの記述様式の選択」であった場合、ステップB10でこれを判断し、次に送付先別に設定を行なうか否かの選択を行なう(ステップB17)。   If the selected item is “selection of description format of feature data”, this is determined in step B10, and then it is selected whether or not to set for each destination (step B17).

ここで、送付先別に設定を行なうことを選択した場合には、操作に応じて、送付先別に送付する特徴データ及び特徴記述様式を選択する(ステップB18)。   Here, when it is selected that the setting is made for each destination, the feature data and the feature description format to be sent for each destination are selected according to the operation (step B18).

一方、ステップB17で送付先別に設定を行なわないと選択した場合には、操作に応じて特徴データ及び特徴記述様式を1通りのみ選択する(ステップB19)。   On the other hand, if it is selected in step B17 that no setting is made for each destination, only one type of feature data and feature description format is selected according to the operation (step B19).

上記ステップB18またはB19の処理後、撮影履歴情報のアップロード送信を許可するか否かを選択する(ステップB20)。   After the process of step B18 or B19, it is selected whether or not upload transmission of shooting history information is permitted (step B20).

ここで許可すると選択した場合にのみ、操作に応じて、サーバ装置112にアップロード送信する特徴データ、撮影条件、及び特徴記述様式等を選択する(ステップB21)。   Only when it is selected that permission is to be given, the feature data to be uploaded and transmitted to the server device 112, the shooting conditions, the feature description format, and the like are selected according to the operation (step B21).

図12(A)は、この「撮影履歴情報の(アップロード)送信」の許可選択を行なう状態を示すものであり、この項目を選択することでさらに図12(B)に示すようなアップロード先のサーバのURL、特徴記述様式、暗号化の有無とアップロードする具体的な内容(「画像データ」「撮影日時」「撮影場所」「撮影条件」「色の分布」「輪郭形状」「テクスチャ」「動き」等)とを個々に選択する。   FIG. 12A shows a state in which the permission of “shooting history information (upload) transmission” is selected. By selecting this item, an upload destination as shown in FIG. Server URL, feature description format, presence / absence of encryption and specific contents to be uploaded (“image data”, “shooting date / time”, “shooting location”, “shooting condition”, “color distribution”, “contour shape”, “texture”, “motion” And so on) individually.

また、選択された項目が「識別する被写体の選択」であった場合、ステップB11でこれを判断し、操作に応じて、特徴データに基づいて識別する被写体の種類または識別方法を選択する(ステップB22)。   If the selected item is “select subject to be identified”, this is determined in step B11, and the type or identification method of the subject to be identified is selected based on the feature data in accordance with the operation (step S11). B22).

なお、上記ステップB11で識別する被写体の選択でもないと判断した場合には、その他のキー処理を行なう(ステップB23)。   If it is determined that the subject to be identified is not selected in step B11, other key processing is performed (step B23).

上記ステップB06〜B11での各選択結果に基づいた設定処理を実行した後、その設定結果に対応した表示内容の更新等の処理を行なった上で(ステップB24)、設定モード以前の処理に復帰する。   After executing the setting process based on the selection results in steps B06 to B11, the display contents corresponding to the setting result are updated (step B24), and the process returns to the process before the setting mode. To do.

次に、このデジタルカメラ10とパーソナルコンピュータ110、及びインターネット111を介したサーバ装置112との接続構成について説明する。   Next, a connection configuration between the digital camera 10 and the personal computer 110 and the server device 112 via the Internet 111 will be described.

図13は、撮影シーンや撮影条件の撮影履歴情報の集計機能や画像検索機能をデジタルカメラ10の外部であるサーバ装置112側が有する場合の機能構成について例示するものである。   FIG. 13 illustrates an example of a functional configuration in the case where the server device 112 side outside the digital camera 10 has a shooting history information aggregation function and an image search function of shooting scenes and shooting conditions.

同図で、デジタルカメラ10側のファームウェアP10上で動作するアプリケーションプログラムとして、カメラ制御プログラムP11とPC転送プログラムP12とが存在し、記録媒体89に記録される画像データ及びそれらに関連付けられた特徴記述データと、プログラムメモリ92及びデータメモリ93に記憶されたプログラムデータ、撮影条件等の統計データの内容をパーソナルコンピュータ110との間で送受する。   In this figure, there are a camera control program P11 and a PC transfer program P12 as application programs that operate on the firmware P10 on the digital camera 10 side, and image data recorded on the recording medium 89 and feature descriptions associated therewith. Data and contents of statistical data such as program data and shooting conditions stored in the program memory 92 and the data memory 93 are transmitted to and received from the personal computer 110.

このデジタルカメラ10と例えばUSB接続されるパーソナルコンピュータ110では、基本ソフトであるOS(オペレーティングシステム)P110上で動作するWWW(World Wide Web)ブラウザP111とデジタルカメラ10専用のドライバソフトの一部であるカメラ転送ソフトP112とが必要なアプリケーションプログラムとして少なくとも存在する。   The personal computer 110 connected to the digital camera 10 by, for example, USB is a part of driver software dedicated to the WWW (World Wide Web) browser P111 operating on the OS (Operating System) P110, which is basic software, and the digital camera 10. The camera transfer software P112 exists at least as a necessary application program.

このパーソナルコンピュータ110とインターネット111経由で接続されるサーバ装置112の機能構成は図示する通りである。   The functional configuration of the server device 112 connected to the personal computer 110 via the Internet 111 is as illustrated.

すなわちこのサーバ装置112では、デジタルカメラ10を所有する会員の認証等を行なうCGI(Common Gateway Interface)プログラムP201、画像データと特徴記述データの登録等を行なうCGIプログラムP202、及び画像データ等の検索等を行なうCGIプログラムP203を中心とし、これらをHTML文書及びXML文書を格納する文書データベースD204を介してこのサーバ装置112全体の統括制御を行なうサーバソフトP205に接続して構成する。   That is, in this server device 112, a CGI (Common Gateway Interface) program P201 for authenticating a member who owns the digital camera 10, a CGI program P202 for registering image data and feature description data, etc., a search for image data, etc. The CGI program P203 that performs the above is mainly connected to server software P205 that performs overall control of the server device 112 via a document database D204 that stores HTML documents and XML documents.

CGIプログラムP201は、認証ソフトP206を介して会員登録データベースD207の記憶内容を参照することで会員の認証、新規登録、抹消等の処理を行なう。   The CGI program P201 refers to the stored contents of the member registration database D207 via the authentication software P206 to perform processing such as member authentication, new registration, and deletion.

CGIプログラムP202は、画像登録ソフトP208、記述言語エンコーダC209を介して画像データを記憶する画像データベースD210、特徴記述データを記憶する特徴記述データベースD211への登録、更新を行なう。   The CGI program P202 performs registration and update to the image registration software P208, the image database D210 that stores image data via the description language encoder C209, and the feature description database D211 that stores feature description data.

これら画像データベースD210、特徴記述データベースD211の記憶内容は、検索ソフトP212、記述言語デコーダC213により上記CGIプログラムP203に読出される。   The contents stored in the image database D210 and the feature description database D211 are read into the CGI program P203 by the search software P212 and the description language decoder C213.

一方で、撮影シーン及び撮影条件の集計ソフトP214が上記特徴記述データベースD211に対して直接アクセスして特徴記述データを読出し、上記上記記述言語デコーダC213を介して特徴記述データを得ることで集計処理を行なうもので、その集計結果は配信データベースD215にシーン・撮影条件の統計データとして更新記憶される。   On the other hand, the tabulation software P214 for shooting scenes and shooting conditions directly accesses the feature description database D211, reads the feature description data, and obtains the feature description data via the description language decoder C213, thereby performing the tabulation processing. Therefore, the totaled result is updated and stored in the distribution database D215 as statistical data of scenes and shooting conditions.

この配信データベースD215にはまた、カメラプログラムの更新データも記憶されるもので、これらの記憶内容が上記サーバソフトP205により読出され、インターネット111を介してユーザのパーソナルコンピュータ110経由でデジタルカメラ10に送出される。   The distribution database D215 also stores update data of the camera program. The stored contents are read by the server software P205 and sent to the digital camera 10 via the personal computer 110 via the Internet 111. Is done.

図14及び図15は、上記図13で示した機能構成における、デジタルカメラ10からサーバ装置112への画像データ、特徴記述データのアップロード、及びサーバ装置112からデジタルカメラ10への統計データのダウンロードの処理内容を示すものである。   14 and 15 illustrate the uploading of image data and feature description data from the digital camera 10 to the server device 112 and the downloading of statistical data from the server device 112 to the digital camera 10 in the functional configuration shown in FIG. This shows the processing contents.

その当初にデジタルカメラ10はパーソナルコンピュータ110との間で通信接続処理を実行して接続状態を確立する(ステップC01,D01)。   Initially, the digital camera 10 executes communication connection processing with the personal computer 110 to establish a connection state (steps C01 and D01).

このときデジタルカメラ10とパーソナルコンピュータ110は相互に相手側の仕様や容量情報を得る(ステップC02,D02)。   At this time, the digital camera 10 and the personal computer 110 obtain the other party's specifications and capacity information from each other (steps C02 and D02).

その後、パーソナルコンピュータ110の発する機器認証データの送信要求にデジタルカメラ10が応えて当該機器認証データを測距センサ100へ送信し、パーソナルコンピュータ110が受信すると(ステップD03,C03)、デジタルカメラ10では続けて画像データを送信するか否かを判断する(ステップC04)。   After that, the digital camera 10 responds to the transmission request for the device authentication data issued by the personal computer 110, transmits the device authentication data to the distance measuring sensor 100, and receives the personal computer 110 (steps D03, C03), the digital camera 10 It is then determined whether or not image data is to be transmitted (step C04).

ここでは、デジタルカメラ10側でユーザが任意に画像データ及び特徴記述データの選択を行なうものとするもので、ユーザにより選択された画像データ及び特徴記述データが少なくとも1つ以上ある場合にのみ、選択された画像データ及び撮影条件、特徴記述データをパーソナルコンピュータ110に対して送信する(ステップC05)。   Here, it is assumed that the user arbitrarily selects image data and feature description data on the digital camera 10 side, and is selected only when there is at least one image data and feature description data selected by the user. The image data, shooting conditions, and feature description data thus transmitted are transmitted to the personal computer 110 (step C05).

これを受けたパーソナルコンピュータ110では、受信した画像データを所定のアルバムフォルダに保存設定した後(ステップD04)、サーバ装置112からの自動更新を行なう自動更新モードがオンに設定されているか否かを判断する(ステップD05)。   In response to this, the personal computer 110 stores and sets the received image data in a predetermined album folder (step D04), and then determines whether or not the automatic update mode for performing automatic update from the server device 112 is set to ON. Judgment is made (step D05).

ここで、オン設定されていると判断した場合にのみ、接続要求をインターネット111を介してサーバ装置112へ送信する(ステップD06)。   Here, only when it is determined that the setting is on, a connection request is transmitted to the server device 112 via the Internet 111 (step D06).

サーバ装置112では、会員登録しているパーソナルコンピュータ110からの接続要求をインターネット111経由で常時受付けており、接続要求を受信した時点でこれを判断し(ステップE01)、当該パーソナルコンピュータ110に対して機器認証データを要求する(ステップE02)。   The server device 112 always accepts a connection request from the personal computer 110 registered as a member via the Internet 111. When the connection request is received, the server device 112 determines this (step E01) and sends the request to the personal computer 110. Request device authentication data (step E02).

サーバ装置112からの機器認証データの要求を受信したパーソナルコンピュータ110は(ステップD07)、上記ステップD03でデジタルカメラ10から受信した機器認証データをサーバ装置112に対して送信する(ステップD08)。   The personal computer 110 that has received the request for device authentication data from the server device 112 (step D07) transmits the device authentication data received from the digital camera 10 in step D03 to the server device 112 (step D08).

サーバ装置112は、パーソナルコンピュータ110から送られてきた機器認証データにより認証ソフトP206が上記会員登録データベースD207に記憶している会員登録データの内容と照合することで認証処理を実行し(ステップE03)、その認証結果から接続要求を送ってきたパーソナルコンピュータ110が正当なユーザ会員の使用するものであるか否かを判断する(ステップE04)。   The server device 112 executes authentication processing by verifying the contents of the member registration data stored in the member registration database D207 by the authentication software P206 based on the device authentication data sent from the personal computer 110 (step E03). From the authentication result, it is determined whether or not the personal computer 110 that has sent the connection request is used by a legitimate user member (step E04).

ここで、認証結果からパーソナルコンピュータ110が正当なユーザ会員の使用するものではないと判断した場合には、接続不可である旨の応答を行ない(ステップE06)、以後当該パーソナルコンピュータ110からの要求を一切拒否する一方で、正当なユーザ会員の使用するものであると判断した場合には、接続許可応答を当該パーソナルコンピュータ110に対して返信する(ステップE05)。   If it is determined from the authentication result that the personal computer 110 is not used by a legitimate user member, a response indicating that the connection is not possible is made (step E06), and a request from the personal computer 110 is made thereafter. On the other hand, if it is determined to be used by a legitimate user member, a connection permission response is returned to the personal computer 110 (step E05).

パーソナルコンピュータ110では、この接続許可応答の有無によりサーバ装置112側での認証が成功したか否かを判断する(ステップD09)。   The personal computer 110 determines whether or not the authentication on the server device 112 side is successful based on the presence or absence of this connection permission response (step D09).

認証が成功しなかったと判断した場合にパーソナルコンピュータ110は、そのままサーバ装置112との通信接続を終了するかどうかを判断し(ステップD17)、終了すると判断した時点でサーバ装置112との接続を切断する処理を実行し(ステップD18)、以上で一連の処理を一旦完了する。   If it is determined that the authentication has not been successful, the personal computer 110 determines whether to end the communication connection with the server device 112 as it is (step D17), and disconnects the connection with the server device 112 when it is determined to end. (Step D18), and the series of processes is completed once.

また、上記ステップD09でサーバ装置112側での認証が成功したと判断した場合にパーソナルコンピュータ110は、サーバ装置112に対して更新情報などのインデックス情報を要求し、サーバ装置112から要求に応答して送られてくるインデックス情報を受信する(ステップD10,E07)。   Further, when it is determined in step D09 that the authentication on the server device 112 side is successful, the personal computer 110 requests index information such as update information from the server device 112, and responds to the request from the server device 112. The index information sent is received (steps D10 and E07).

こうしてサーバ装置112からインデックス情報を受信したパーソナルコンピュータ110は、次にデジタルカメラ10に対して撮影履歴情報の送信を要求する(ステップD11)。   The personal computer 110 receiving the index information from the server device 112 next requests the digital camera 10 to transmit shooting history information (step D11).

デジタルカメラ10は、パーソナルコンピュータ110からの撮影履歴情報の送信要求に対し、予めユーザの設定により撮影履歴の送信が許可されているか否かを判断し(ステップC06)、許可されていると判断した場合にのみ、送信するように設定されている撮影履歴情報を送信する(ステップC07)。   In response to the shooting history information transmission request from the personal computer 110, the digital camera 10 determines in advance whether or not transmission of the shooting history is permitted by the user's setting (step C06), and determines that it is permitted. Only in this case, the shooting history information set to be transmitted is transmitted (step C07).

これを受けたパーソナルコンピュータ110は、サーバ装置112に対してデジタルカメラ10の撮影履歴情報を転送する(ステップD12)。   Receiving this, the personal computer 110 transfers the shooting history information of the digital camera 10 to the server device 112 (step D12).

サーバ装置112では、パーソナルコンピュータ110を介してデジタルカメラ10の撮影履歴情報の受信があるか否かを判断し(ステップE08)、あると判断した場合にのみ、その後に送られてくる撮影履歴情報を一旦配信データベースD215に登録、保持した上で(ステップE09)、集計ソフトP214により撮影条件、特徴データ等を撮影モード別に集計し、その集計結果により配信データベースD215の内容を更新記憶させる(ステップE10)。   The server device 112 determines whether or not the shooting history information of the digital camera 10 has been received via the personal computer 110 (step E08). Only when it is determined that there is shooting history information sent thereafter. Is once registered and held in the distribution database D215 (step E09), and the shooting conditions, feature data, and the like are tabulated for each shooting mode by the tabulation software P214, and the contents of the distribution database D215 are updated and stored by the tabulation result (step E10). ).

パーソナルコンピュータ110では、上記ステップD12での撮影履歴情報の転送処理後に、デジタルカメラ10用の更新プログラムがあるか否かを上記サーバ装置112から受信したインデックス情報により判断し(ステップD13)、更新プログラムがあると判断した場合にのみ、サーバ装置112に対してその更新プログラムのダウンロード要求を送信する(ステップD14)。   The personal computer 110 determines whether there is an update program for the digital camera 10 after the transfer processing of the shooting history information in the step D12 based on the index information received from the server device 112 (step D13). Only when it is determined that there is an update program, a download request for the update program is transmitted to the server device 112 (step D14).

サーバ装置112ではパーソナルコンピュータ110からの更新プログラムの要求があるか否かを判断し(ステップE11)、あると判断した場合には、当該更新プログラムを配信データベースD215から読出してサーバソフトP205によりパーソナルコンピュータ110側へ送信する(ステップE12)。   The server device 112 determines whether or not there is a request for an update program from the personal computer 110 (step E11). If it is determined that there is a request, the server program 112 reads the update program from the distribution database D215 and uses the server software P205 to execute the personal computer. It transmits to 110 side (step E12).

その後にサーバ装置112は、パーソナルコンピュータ110からの要求の有無に拘わらず、同じく配信データベースD215に記憶している撮影シーン、撮影条件等の統計データを読出してパーソナルコンピュータ110へ送信し(ステップE13)、以上で一連のパーソナルコンピュータ110との接続を完了するものとして、一旦パーソナルコンピュータ110との接続を切断する処理を実行し、次に他のパーソナルコンピュータからの接続要求があるのを待機する。   Thereafter, the server device 112 reads out statistical data such as shooting scenes and shooting conditions stored in the distribution database D215, regardless of whether or not there is a request from the personal computer 110, and transmits the statistical data to the personal computer 110 (step E13). As described above, assuming that the connection with the series of personal computers 110 is completed, a process of temporarily disconnecting the connection with the personal computer 110 is executed, and then there is a wait for a connection request from another personal computer.

パーソナルコンピュータ110は、上記ステップD14でのダウンロード要求の送信後、これに応答してサーバ装置112から送られてくる更新プログラムをデジタルカメラ10に転送し(ステップD15)、さらにその後にサーバ装置112から送られてくる撮影条件等の統計データもデジタルカメラ10へ転送する(ステップD16)。   After transmitting the download request in step D14, the personal computer 110 transfers the update program sent from the server device 112 in response to the download request to the digital camera 10 (step D15). The received statistical data such as the photographing conditions is also transferred to the digital camera 10 (step D16).

このデジタルカメラ10への転送処理後、あるいは上記ステップD13でデジタルカメラ10用の更新プログラムがないと判断した場合、まだデジタルカメラ10に関するサーバ装置112との通信接続が必要であるか否かにより通信接続を終了するか否かを判断し(ステップD17)、必要であると判断した場合には上記ステップD04からの処理に戻る一方で、必要ないと判断した場合にはサーバ装置112、デジタルカメラ10との相互確認の上で接続を切断する処理を実行し(ステップD18)、一連の処理を完了して次の処理に備える。   After the transfer process to the digital camera 10 or when it is determined in step D13 that there is no update program for the digital camera 10, communication is performed depending on whether communication connection with the server device 112 related to the digital camera 10 is still necessary. It is determined whether or not to end the connection (step D17). If it is determined that the connection is necessary, the process returns to step D04. On the other hand, if it is determined that the connection is not necessary, the server device 112 and the digital camera 10 After the mutual confirmation, a process for disconnecting the connection is executed (step D18), and a series of processes are completed to prepare for the next process.

デジタルカメラ10では、上記ステップC07で撮影履歴情報を送信する処理の有無に拘わらず、その後にパーソナルコンピュータ110から更新プログラムの受信があるか否かを判断する(ステップC08)。   The digital camera 10 determines whether or not an update program has been received from the personal computer 110 thereafter, regardless of whether or not there is a process of transmitting shooting history information in step C07 (step C08).

ここで、あると判断した場合にはさらに、パーソナルコンピュータ110から送られてくる更新プログラムを受信し(ステップC09)、続けて撮影条件等の統計データも受信した後に(ステップC10)、受信した内容に基づいてプログラムメモリ92、及びデータメモリ93の内容を更新設定する(ステップC11)。   If it is determined that there is an update program, an update program sent from the personal computer 110 is received (step C09), and statistical data such as shooting conditions is received (step C10). The contents of the program memory 92 and the data memory 93 are updated based on the above (step C11).

これらステップD09〜D11の処理の実行の有無に拘わらず、さらにパーソナルコンピュータ110を介してのサーバ装置112との通信接続が必要であるか否かにより通信接続を終了するか否かを判断し(ステップC12)、必要であると判断した場合には上記ステップC04からの処理に戻る一方で、必要ないと判断した場合にはパーソナルコンピュータ110との相互確認の上で接続を切断する処理を実行し(ステップC13)、一連の処理を完了して次の処理に備える。   Regardless of whether or not the processing of these steps D09 to D11 is executed, it is further determined whether or not to end the communication connection depending on whether or not the communication connection with the server device 112 via the personal computer 110 is necessary ( Step C12) When it is determined that it is necessary, the process returns to the process from Step C04. On the other hand, when it is determined that it is not necessary, a process for cutting off the connection is performed after mutual confirmation with the personal computer 110. (Step C13), a series of processing is completed to prepare for the next processing.

また、上記図13での機能構成、及び図14及び図15での処理内容は、サーバ装置112側で撮影シーンや撮影条件の撮影履歴情報の集計機能や画像検索機能を行なう場合について示したものであるが、デジタルカメラ10の内部で集計や画像の検索等を行なう場合の機能構成は、例えば図16に示すようになる。   Further, the functional configuration in FIG. 13 and the processing contents in FIG. 14 and FIG. 15 show the case where the server apparatus 112 performs the shooting history information summation function and the image search function on the shooting scene and shooting conditions. However, the functional configuration in the case of performing aggregation, image search, or the like inside the digital camera 10 is as shown in FIG. 16, for example.

すなわち、図16は集計機能や検索機能をデジタルカメラ10側に設けた場合の機能構成を例示するものである。   That is, FIG. 16 illustrates a functional configuration in the case where a totaling function and a search function are provided on the digital camera 10 side.

デジタルカメラ10では、ファームウェアP10上で動作するアプリケーションプログラムとしてPC転送ソフトP21及び検索集計ソフトP22が存在し、パーソナルコンピュータ110から送られてきたメタデータ等はPC転送ソフトP21で受信された後、記述言語デコーダC23によってデコードされた後に検索集計ソフトP22に渡される。   In the digital camera 10, there are PC transfer software P21 and search aggregation software P22 as application programs that operate on the firmware P10, and metadata and the like sent from the personal computer 110 are received by the PC transfer software P21 and then described. After being decoded by the language decoder C23, it is passed to the search aggregation software P22.

検索集計ソフトP22は、統計データD25、メタデータメモリD26、及び画像データメモリD27を統括管理し、画像データの検索や特徴記述データの集計等を行なうもので、上記図4に示したハードウェアとしての回路構成上では統計データD25はシーン・撮影条件の統計データメモリ91に、メタデータD26及びメタデータD26は特徴抽出/認識処理部90に記憶される。   The search aggregation software P22 manages the statistical data D25, the metadata memory D26, and the image data memory D27, and performs search of image data, aggregation of feature description data, and the like. The hardware shown in FIG. In this circuit configuration, statistical data D25 is stored in the scene / shooting condition statistical data memory 91, and metadata D26 and metadata D26 are stored in the feature extraction / recognition processing unit 90.

また、パーソナルコンピュータ110から送られてきたがデータはPC転送ソフトP21で受信した後に画像データデコーダC24でデコードされ、画像データD27として保持、記憶される。   The data sent from the personal computer 110 is received by the PC transfer software P21, decoded by the image data decoder C24, and held and stored as image data D27.

パーソナルコンピュータ110は、デジタルカメラ10とサーバ装置112とを仲介するものとして、OSP110上でWWWブラウザP121及びカメラ転送ソフトP122が動作する。   The personal computer 110 acts as an intermediary between the digital camera 10 and the server device 112, and a WWW browser P121 and camera transfer software P122 operate on the OSP 110.

このパーソナルコンピュータ110とインターネット111を介して接続されるサーバ装置112では、サーバソフトP231がMPEG7等のメタデータを記憶する特徴記述データベースD232と、画像データベースD233を管理し、併せて特徴記述データベースD232から必要によりインデックスデータD234を読出し、パーソナルコンピュータ110を介してデジタルカメラ10側へ送信する。   In the server device 112 connected to the personal computer 110 via the Internet 111, the server software P231 manages the feature description database D232 for storing metadata such as MPEG7 and the image database D233, and from the feature description database D232 together. If necessary, the index data D234 is read and transmitted to the digital camera 10 via the personal computer 110.

次に、図17を用いて画像データから特徴量を抽出する特徴抽出処理と抽出した特徴データの記録処理の流れについて説明する。   Next, a flow of feature extraction processing for extracting feature amounts from image data and recording processing of the extracted feature data will be described with reference to FIG.

撮影を行なう前に、撮影に直接関連した撮影条件の設定操作(図では「設定操作(1)」と称する)と、その他の設定項目の設定操作(図では「設定操作(2)」と称する)とを施しておく。   Before shooting, a shooting condition setting operation directly related to shooting (referred to as “setting operation (1)” in the figure) and other setting item setting operations (referred to as “setting operation (2)” in the figure). ).

撮影を指示する操作、具体的には撮影モード下での上記シャッタスイッチ15の操作により撮影条件S01を特定した状態での撮影処理S02が実行され、撮影画像S03のデータと撮影条件などの撮影情報S04とが得られる。   Shooting processing S02 is performed in a state where the shooting condition S01 is specified by an operation for instructing shooting, specifically, operation of the shutter switch 15 in the shooting mode, and shooting information such as data of the shot image S03 and shooting conditions. S04 is obtained.

図18(A)は、撮影により得られる撮影情報の内容を例示するもので、ここではExif(Excange image file format)やDPOF(Digital Print Order Format)の規格に従ったものとしている。   FIG. 18A illustrates the contents of shooting information obtained by shooting, and here, the information conforms to the standards of Exif (Exchange image file format) and DPOF (Digital Print Order Format).

撮影により得た画像データS03に対し、画像の圧縮/符号化S05と特徴抽出S06とが行なわれ、符号化された画像データと画素数を大幅に間引いたサムネイル画像とが画像データファイルS11の主要素として記録されると共に、上記撮影情報もヘッダ情報の一部として該画像データファイルS11に加えられる。   Image compression / encoding S05 and feature extraction S06 are performed on the image data S03 obtained by photographing, and the encoded image data and the thumbnail image obtained by greatly reducing the number of pixels are the main parts of the image data file S11. In addition to being recorded as an element, the above-described photographing information is also added to the image data file S11 as part of the header information.

また、上記撮影には直接関連しない事前の設定操作(2)による設定項目S07から、特徴抽出を行なう抽出項目S08、特徴データ付加のオン/オフ設定S09、及び特徴データの記述様式S10が選択される。   Also, an extraction item S08 for performing feature extraction, an on / off setting for feature data setting S09, and a description format S10 for feature data are selected from the setting item S07 by the previous setting operation (2) not directly related to the shooting. The

このうち、抽出項目S08は上記撮影情報S04によりその内容が加減操作されるものであり、該抽出項目S08及び特徴データ付加のオン/オフ設定S09が上記特徴抽出S06に関与する。   Among these, the content of the extracted item S08 is adjusted by the shooting information S04, and the extracted item S08 and the feature data addition on / off setting S09 are related to the feature extraction S06.

この特徴抽出S06においては、詳細な内容は後述するが、圧縮/符号化前の画像データS03及び圧縮/符号化後の画像データに対し、上記抽出項目S08及び特徴データ付加のオン/オフ設定S09によって複数の特徴量を抽出処理するもので、処理結果である抽出物A,B,…が纏めて特徴抽出データS12として、特徴データの記述符号化処理S13に供される一方で、撮影シーン等の識別等S15として参照される。   In the feature extraction S06, the details will be described later, but the extraction item S08 and feature data addition on / off setting S09 are applied to the image data S03 before compression / encoding and the image data after compression / encoding. A plurality of feature amounts are extracted and processed, and extracts A, B,... That are processing results are collectively used as feature extraction data S12, and are used for feature data description encoding processing S13, while a shooting scene or the like is used. This is referred to as S15 or the like.

特徴データの記述符号化処理S13では、予め定められた複数の記述様式A,B,‥‥から指定された1つを用い、特徴データS12を記述化した上で符号化し、特徴記述コードS14として上記画像データファイルS11に付加設定する。   In the feature data description coding process S13, the feature data S12 is coded after being coded using one specified from a plurality of predetermined description formats A, B,... As a feature description code S14. Additional setting is made to the image data file S11.

図18(B)は、この特徴記述コードS14の内容を例示するもので、ここでは記述様式としてMPEG7(ISO/IEC 15938)規格を用いた場合を示している。   FIG. 18B illustrates the contents of the feature description code S14, and here shows a case where the MPEG7 (ISO / IEC 15938) standard is used as the description format.

画像データファイルS11においては、この特徴記述コードS14は拡張ヘッダ情報の一部として付加されるものとする。   In the image data file S11, the feature description code S14 is added as part of the extended header information.

特徴データは、ユーザ操作により選択された方法(記述様式)に従って、例えば特徴データをDCFやExifなど画像ファイルのヘッダ情報や拡張データとして、もしくは上述したMPEG7規格に準じたメタデータ記述ファイル、あるいはSMPTEのMetadata規格、EBUによるP/Meta規格、TV−Anytime規格、W3CによるSMIL規格、あるいはDublin CoreとRDFによるXML構文、などの各種メタデータ記述用の規格や言語、あるいはXMLなどの汎用記述言語に準じた記述ファイル、あるいはこれらをバイナリデータ等に変換した記述データファイル等から、任意に選択して記録/出力することができるものとする。   According to the method (description format) selected by the user operation, the feature data is, for example, the feature data as header information or extension data of an image file such as DCF or Exif, a metadata description file according to the above-mentioned MPEG7 standard, or SMPTE Standards and languages for describing various metadata such as Metadata standard of EBU, P / Meta standard by EBU, TV-Anytime standard, SMIL standard by W3C, XML syntax by Dublin Core and RDF, or general-purpose description languages such as XML It can be arbitrarily selected and recorded / output from a conforming description file or a description data file obtained by converting these into binary data.

例えば、最も古くから書誌情報のメタデータ記述法として用いられているDublin Core(1985)では、タイトル(title)、概要記述(description)、出版社(publisher)、作者(creator)、著作権(rights)、年月日(date)、種別(type)、様式(format)、‥‥など15の基本属性(Dublin Core Metadata Element Set:DCMES)が規定されており、表記法は例えばXMLに準じたRDF(Resource Description Framework)のスキーマなどを用いて記述する。   For example, in Dublin Core (1985), which has been used as a metadata description method for bibliographic information for the longest time, title, description, publisher, creator, copyright (rights) ), Date, type, type, format, etc., and 15 basic attributes (Dublin Core Metadata Element Set: DCMES) are defined, and the notation is, for example, RDF according to XML It is described using a schema of (Resource Description Framework).

その他の各種メタデータ記述規格でも、放送映像用やビットストリーム映像用、ネットワーク配信用など用途別の規格によって記述子や記述スキーム等はそれぞれ異なるが、同様にこのような書誌情報の多くを記述することができる。   Even in various other metadata description standards, descriptors and description schemes differ depending on the application-specific standards such as broadcast video, bitstream video, and network distribution. be able to.

マルチメディア用のメタデータ記述規格MPEG7のMPEG7 Visualでは、画像や映像データ、音声などの各種特徴を記述できる記述子(Descriptor)と記述書式(Description Sheme)等も詳細に定義されている。   In the MPEG7 Visual of the metadata description standard MPEG7 for multimedia, a descriptor (Descriptor) capable of describing various characteristics such as images, video data, and audio, a description format (Description Scheme), and the like are also defined in detail.

例えば、色やテクスチャ、輪郭形式などの特徴を表すために以下のような記述子が用意されており、これらに準じて記述してもよい。すなわち
Color space:色空間を指定する記述子、
Color quantization:
色空間の量子化方法を指定する記述子、
Dominant color:
任意形状領域における代表色を表す記述子、
Scalable color:
色特徴をHSV色空間におけるヒストグラムで表す記述子、
Color layout:
色の分布をDCT係数で表す記述子、
Color structure:
色の分布における偏りの程度を表す記述子、
Homogeneous texture:
テクスチャの特徴を画像強度と周波数空間上のエネルギ分布により表す記述子、
Texture browsing:
テクスチャの特徴を均一性、粒度、方向性の3要素で表す記述子、
Edge histogram:
エッジ特徴の分布をヒストグラムで表す記述子、
Region shape:
領域の形状特徴を表す記述子、
Contour shape:
領域の閉輪郭線の形状特徴を表す記述子。など
図19及び図20は、画像から抽出された特徴データの記述例を示すものであり、画像全体から輪郭線により領域を区分して徐々に細分化することで種々の特徴データを得ることができるのがわかる。
For example, the following descriptors are prepared to represent features such as colors, textures, and contour formats, and may be described according to these. Ie
Color space: descriptor that specifies the color space,
Color quantization:
A descriptor that specifies how the color space is quantized,
Dominant color:
A descriptor representing a representative color in an arbitrarily shaped region,
Scalable color:
A descriptor representing color features as a histogram in the HSV color space;
Color layout:
A descriptor representing the color distribution in terms of DCT coefficients;
Color structure:
A descriptor representing the degree of bias in the color distribution,
Homogeneous texture:
A descriptor that represents the features of the texture by image intensity and energy distribution in the frequency space,
Texture browsing:
A descriptor that expresses the characteristics of the texture with three elements of uniformity, granularity, and directionality.
Edge histogram:
A descriptor representing the distribution of edge features as a histogram,
Region shape:
A descriptor representing the shape features of the region,
Contour shape:
A descriptor that represents the shape feature of the closed contour of the region. FIG. 19 and FIG. 20 show examples of description of feature data extracted from an image, and various feature data can be obtained by dividing a region from an entire image by a contour line and gradually subdividing it. I know you can.

図19(A)は元となる画像データを示し、図19(B)がその画像全体に対する特徴データ、図19(C),(D)と図19(E),(F)が1次領域区分した画像とその記述データ、図19(G)〜(K)と図19(L)〜(P)が2次領域区分した画像とその記述データを示す。   FIG. 19A shows original image data, FIG. 19B shows feature data for the entire image, and FIGS. 19C, 19D, 19E, and 19F show primary regions. The segmented image and its description data, FIGS. 19G to 19K and FIGS. 19L to 19P show the secondary region segmented image and its description data.

同様に図19(Q)は元となる画像データを示し、図19(R)がその画像全体に対する特徴データ、図19(S),(T)と図19(U),(V)が1次領域区分した画像とその記述データを示す。、
また、図21(A)、図21(B)及び図22は、いずれも抽出された特徴データの記述例を示すもので、図21(A)はMPEG7、図21(B)はXML、図22はSMILの各記述様式を用いている。
Similarly, FIG. 19 (Q) shows the original image data, FIG. 19 (R) is the feature data for the entire image, FIGS. 19 (S), (T) and FIGS. 19 (U), (V) are 1 The next segmented image and its description data are shown. ,
21A, FIG. 21B, and FIG. 22 show examples of description of extracted feature data. FIG. 21A shows MPEG7, FIG. 21B shows XML, and FIG. No. 22 uses each description format of SMIL.

図23に、上記のようにして例えばデジタルカメラ10の記録媒体89(あるいはハードディスクユニット43)に記録された画像データファイルの階層構造を例示するものである。   FIG. 23 illustrates a hierarchical structure of image data files recorded on the recording medium 89 (or the hard disk unit 43) of the digital camera 10, for example, as described above.

同図で、このデジタルカメラ10のリムーバブルディスク媒体としての最上階層のフォルダ「Root」F000の下に、フォルダ「DCIM」F001、フォルダ「ALBUM」F002、フォルダ「MISC」F003、及びファイル「INDEX.PVM」F004とが存在するものとする。   In the figure, under the folder “Root” F000 as the removable disk medium of the digital camera 10, a folder “DCIM” F001, a folder “ALBUM” F002, a folder “MISC” F003, and a file “INDEX.PVM” are shown. "F004" exists.

上記フォルダ「DCIM」F001は画像ファイルを格納するためのフォルダであり、その下にフォルダ「100ABCD」F005、「101ABCD」F006、‥‥を有する。   The folder “DCIM” F001 is a folder for storing image files, and has folders “100ABCD” F005, “101ABCD” F006,.

上記フォルダ「ALBUM」F002は、再生プレイリスト等を格納するフォルダであり、その下にファイル「ALBUM.PVM」F007等を有する。   The folder “ALBUM” F002 is a folder for storing a playback playlist and the like, and has a file “ALBUM.PVM” F007 and the like below.

上記フォルダ「MISC」F003は、DPOFファイルを格納するフォルダであり、その下にファイル「AUTOPRINT.MRK」F008、ファイル「UNICODE.MRK」F009、ファイル「AUTOXFER.MRK」F010、ファイル「AUTOPLAY.MRK」F011、‥‥を有する。   The folder “MISC” F003 is a folder for storing the DPOF file, and below that, the file “AUTOPRINT.MRK” F008, the file “UNICODE.MRK” F009, the file “AUTOXFER.MRK” F010, and the file “AUTOPLAY.MRK” F011,...

上記「INDEX.PVM」F004は、例えばMPV、MPEG7、XML等で記述される、このメディア全体の見出しのメタ情報記述ファイルである。   The “INDEX.PVM” F004 is a meta information description file of the heading of the entire medium described in, for example, MPV, MPEG7, XML, or the like.

上記フォルダ「100ABCD」F005の下に、個々の画像ファイルであるファイル「CIMG0001.JPG」F012、ファイル「CIMG0002.JPG」F013、‥‥と、例えばMPV、MPEG7、XML等で記述される、フォルダ内画像の特徴記述データのファイルであるファイル「LIST.PVM」F014とが配置される。   In the folder “100ABCD” F005, the file “CIMG0001.JPG” F012, the file “CIMG0002.JPG” F013,... Are described in, for example, MPV, MPEG7, XML, etc. A file “LIST.PVM” F014, which is a file of image feature description data, is arranged.

上記ファイル「ALBUM.PVM」F007も、例えばMPV、MPEG7、XML等で記述される、プレイリスト記述データ等のファイルである
上記ファイル「AUTOPRINT.MRK」F008は自動プリントファイル、ファイル「UNICODE.MRK」F009はユニコード文字列記述ファイル、ファイル「AUTOXFER.MRK」F010は自動送信ファイル、ファイル「AUTOPLAY.MRK」F011は自動再生ファイルであり、いずれもDPOF規格で規定されたファイルである。
The file “ALBUM.PVM” F007 is also a file such as playlist description data described in MPV, MPEG7, XML, etc. The file “AUTOPRINT.MRK” F008 is an automatic print file, and the file “UNICODE.MRK”. F009 is a Unicode character string description file, the file “AUTOXFER.MRK” F010 is an automatic transmission file, and the file “AUTOPLAY.MRK” F011 is an automatic reproduction file, both of which are defined by the DPOF standard.

図24は、Exif規格に則ったJPEG圧縮データファイルの構造例を示すもので、上記図23のファイル「CIMG0001.JPG」F012、ファイル「CIMG0002.JPG」F013等に相当する。   FIG. 24 shows an example of the structure of a JPEG compressed data file conforming to the Exif standard, and corresponds to the file “CIMG0001.JPG” F012, the file “CIMG0002.JPG” F013, etc. in FIG.

図24(A)が1枚分の静止画像を圧縮した、上記「CIMG0001.JPG」F012、「CIMG0002.JPG」F013に相当するJPEGデータファイルであり、そのうちのExif規格の付属情報である第1アプリケーション・マーカセグメント「APP1」の構造を図24(B)に示す。   FIG. 24A shows JPEG data files corresponding to the above-mentioned “CIMG0001.JPG” F012 and “CIMG0002.JPG” F013 obtained by compressing one still image, and the first information which is attached to the Exif standard. The structure of the application marker segment “APP1” is shown in FIG.

さらに、この「APP1」中、情報タグであるExif IFD(1st IFD)の構造を図24(C)に示す。   Further, FIG. 24C shows the structure of an Exif IFD (1st IFD) that is an information tag in “APP1”.

次いで、図25により特徴抽出処理の詳細な処理内容について説明する。
この図25は、上記図5のステップA07のサブルーチンである。その処理当初に、まず処理対象となる画像ファイルを取込み(ステップF01)、次に特徴抽出処理を行なう設定データを読込む(ステップF02)。
Next, detailed processing contents of the feature extraction processing will be described with reference to FIG.
FIG. 25 shows the subroutine of step A07 in FIG. At the beginning of the processing, first, an image file to be processed is fetched (step F01), and then setting data for performing feature extraction processing is read (step F02).

抽出する特徴量が自動設定されたものであるか否かを判断し(ステップF03)、自動設定されたものであれば当該画像の撮影情報を読込んだ後(ステップF04)、撮影モードまたは撮影条件に基づいて、抽出する特徴量の種類を選択する(ステップF05)。   It is determined whether or not the feature amount to be extracted is automatically set (step F03), and if it is automatically set, after shooting information of the image is read (step F04), the shooting mode or shooting is performed. Based on the condition, the type of feature quantity to be extracted is selected (step F05).

また、上記ステップF03で自動設定されていないと判断した場合には、それに代わってユーザが手動で設定した、抽出する特徴量の種類を選択する(ステップF06)。   If it is determined in step F03 that automatic setting has not been performed, the type of feature value to be extracted, which is manually set by the user, is selected instead (step F06).

上記ステップF05またはF06の処理後、抽出する特徴の種別に応じて、前処理及び特徴抽出手段の内容を選択し(ステップF07)、選択した前処理内容に従って第1段階での前処理、及び第2段階の前処理を順次実行する(ステップF08,F09)。   After the process of step F05 or F06, the contents of the preprocessing and feature extraction means are selected according to the type of feature to be extracted (step F07), and the preprocessing in the first stage according to the selected preprocessing contents, Two stages of pre-processing are sequentially executed (steps F08 and F09).

これら前処理は、上述した如く、抽出する特徴の量の内容によって決定されるものであり、第1段階の前処理としては例えば画像強調処理、鮮鋭化処理、雑音除去処理などがあり、また第2段階の前処理としては例えば2値化処理、正規化処理、回転処理、座標変換処理、細線化処理、膨張収縮処理などがある。   As described above, the preprocessing is determined by the content of the feature amount to be extracted. Examples of the first stage preprocessing include image enhancement processing, sharpening processing, and noise removal processing. Examples of the two-stage preprocessing include binarization processing, normalization processing, rotation processing, coordinate conversion processing, thinning processing, and expansion / contraction processing.

以下前処理のいくつかについて説明する。
(鮮鋭化、輪郭抽出)
一次微分フィルタもしくは二次微分フィルタの処理を用いて、画像の先鋭化処理、輪郭抽出処理を行なうことができ、またこのようなフィルタ処理により、特徴抽出の前処理における画像の鮮鋭化、輪郭抽出、エッジ抽出に利用できる。
Hereinafter, some of the preprocessing will be described.
(Sharpening, contour extraction)
Image sharpening processing and contour extraction processing can be performed using the processing of the primary differential filter or the secondary differential filter, and by such filter processing, image sharpening and contour extraction are performed in the preprocessing of feature extraction. Can be used for edge extraction.

被写体像の輪郭形状や外形パターン、面積などを特徴データに利用する場合には、特徴抽出したい画像データの輝度等を、画素毎に輪郭強調やエッジ検出用のフィルタ演算等を行なって、輪郭強調や外形抽出した画像に変換してから、特徴データ等抽出することが多い。   When the contour shape, outline pattern, area, etc. of the subject image are used as feature data, the brightness of the image data to be extracted is subjected to contour enhancement and edge detection filter calculation for each pixel. In many cases, feature data and the like are extracted after the image is converted into an extracted image.

一般に、階調が変化する部分のエッジがぼけた画像f(i,j)を
Δx=f(i+1,j)−f(i−1,j)、
Δy=f(i,j+1)−f(i,j−1)、
g(i,j)=√((Δx)+(Δy))、または
g(i,j)=|Δx|+|Δy
等の演算により、一次微分や勾配(Gradient)を求めると、階調が変化する勾配部分や輪郭を抽出できる。
あるいは、

Figure 0004867428
In general, an image f (i, j) in which the edge of a portion where gradation changes is blurred
Δx f = f (i + 1, j) −f (i−1, j),
Δy f = f (i, j + 1) −f (i, j−1),
g (i, j) = √ ((Δx f ) 2 + (Δy f ) 2 ), or
g (i, j) = | Δx f | + | Δy f |
If a first derivative or gradient is obtained by the above-described calculation, a gradient portion or contour where the gradation changes can be extracted.
Or
Figure 0004867428

または
f(i,j+1)
=f(i+1,j)+f(i−1,j)
+f(i,j+1)+f(i,j−1)−4f(i,j)
等の演算により、さらに微分する二次微分(Laplacian)処理を施し、その結果を原画像データから差し引くと、エッジ部分の高周波成分を強調した画像を合成することができ、結果としてぼけたエッジ部分を強調することができる。
Or
2 f (i, j + 1)
= F (i + 1, j) + f (i-1, j)
+ F (i, j + 1) + f (i, j-1) -4f (i, j)
By performing secondary differentiation (Laplacian) processing for further differentiation by subtracting the result from the original image data, it is possible to synthesize an image that emphasizes the high-frequency component of the edge portion, resulting in a blurred edge portion Can be emphasized.

エッジや輪郭の強調処理をソフトウェア処理で行なうためには、「Prewittフィルタ」「Sobelフィルタ」「Kirschフィルタ」「Robertsフィルタ」等の一次微分の空間フィルタ処理、あるいは「Laplacianフィルタ」等の二次微分の空間フィルタ演算子等を用いることができる。   In order to perform edge and contour enhancement processing by software processing, first-order differential spatial filter processing such as “Prewitt filter”, “Sobel filter”, “Kirsch filter”, “Roberts filter”, or second-order differentiation such as “Laplacian filter”, etc. These spatial filter operators can be used.

(2値化、平均化、輝度変換)
輝度ヒストグラムの変換処理などにより、中間階調の強調、2値化処理、所定の輝度領域の抽出などを行なうことができる。被写体像の画像データ(輝度値や色差値)の分布パターンなどを特徴データとして利用する場合に、画像データの輝度分布(ヒストグラム)を求め、輝度変換処理を行なうことにより中間階調の強調や圧縮を行なうことができ、あるいは所定のしきい値との大小で2値化し、所定の輝度領域だけを抽出することができる。さらには、隣接する複数画素毎に輝度値や色差値を平均化して、パターンの単純化や情報量の圧縮を行なうことができる。
(Binarization, averaging, luminance conversion)
By means of luminance histogram conversion processing, halftone enhancement, binarization processing, extraction of a predetermined luminance region, and the like can be performed. When the distribution pattern of image data (luminance values and color difference values) of the subject image is used as feature data, the luminance distribution (histogram) of the image data is obtained, and luminance conversion processing is performed to enhance or compress intermediate tones. Or binarized with a predetermined threshold value to extract only a predetermined luminance region. Furthermore, it is possible to simplify the pattern and compress the information amount by averaging the luminance value and the color difference value for each of a plurality of adjacent pixels.

(膨張、収縮、細線化、線図形化)
輪郭形状から被写体の形状や特徴を判別するためには、まず形状を単純化して情報量を圧縮し、あるいは線図形化所定から判別処理するのが望ましい。
(Expansion, shrinkage, thinning, line drawing)
In order to discriminate the shape and characteristics of the subject from the contour shape, it is desirable to first simplify the shape and compress the amount of information, or to perform discrimination processing based on a predetermined line figure.

例えば2値化された画像の輪郭や、あるいは2値化された「1」の画素と「0」の画素との境界領域で「1」画素を(隣接する8近傍の)画素の1層分だけ外側に太くする、所謂「膨張(Expantion)」処理を行なうと、輪郭など境界部分の小さな孔や溝が取り除かれる。   For example, “1” pixels (one adjacent eight neighbors) for one layer of pixels in a binarized image outline or a boundary region between binarized “1” pixels and “0” pixels When the so-called “expansion” process is performed to make the outer side thicker, the small holes and grooves at the boundary portion such as the contour are removed.

逆に、1層分だけ細くする「収縮(Contraction)」処理により境界部分の突起や孤立点などを取り除くことができるので、上記膨張処理及び収縮処理を複数回組み合わせることで、凹部や凸部の除去、形状の単純化を行なうことができる。   On the contrary, since the protrusions and isolated points of the boundary portion can be removed by the “contraction” process of thinning by one layer, the combination of the above expansion process and the contraction process can be performed multiple times. Removal and shape simplification can be performed.

また、2値化された画像から、線幅が1の中心線を抽出する、所謂「細線化(Thinning)」処理により、骨状(スケルトン)の概略形状を求めることができる。   Further, a rough shape of a skeleton can be obtained by a so-called “thinning” process in which a center line having a line width of 1 is extracted from a binarized image.

さらに、2値化された輪郭パターンの周囲をその外側と内側とからそれぞれ境界に沿ってたどり、境界部画素を「1」とし、残りの画素を「0」とする「境界線追跡」処理により、輪郭の境界線のみの画像に変換できる。   Further, the binarized contour pattern is traced along the boundary from the outside and the inside thereof, the boundary pixel is set to “1”, and the remaining pixels are set to “0” by “boundary line tracking” processing. The image can be converted into an image with only the boundary line of the outline.

ま、輪郭形状の数画素毎に選択した画素のみを折れ線で連結する「折れ線近時」処理などを用いるものとしてもよい。   In addition, it is possible to use a “near broken line” process or the like that connects only selected pixels for every several pixels of the contour shape with broken lines.

上述した2段階の前処理を終えた後、実際の特徴抽出処理を特徴抽出/認識処理部90により実行する(ステップF10)。
図26は、この特徴抽出処理の具体的な処理手順を列挙したサブルーチンを部分的に示すものであり、第1乃至第xの特徴抽出処理を順次実施する。
After the above-described two-stage preprocessing is completed, the actual feature extraction processing is executed by the feature extraction / recognition processing unit 90 (step F10).
FIG. 26 partially shows a subroutine listing specific processing procedures of the feature extraction processing, and sequentially executes the first to xth feature extraction processing.

すなわち、このステップF10においては、第1の特徴抽出処理として色領域の抽出を行ない(ステップG01)、次いで抽出した色領域に基づいた、代表色、色分布、RGBヒストグラム、DCT係数、‥‥などの特徴記述データの作成を行なう(ステップG02)。   That is, in step F10, color regions are extracted as the first feature extraction process (step G01), and then representative colors, color distributions, RGB histograms, DCT coefficients,... Based on the extracted color regions. Is created (step G02).

併せて、第2の特徴抽出処理として輪郭形状の抽出を行ない(ステップG03)、次いで抽出した輪郭形状に基づいた、形状評価値、フーリエ記述子、パワースペクトル、‥‥などの特徴記述データの作成を行なう(ステップG04)。   At the same time, the contour shape is extracted as the second feature extraction process (step G03), and then feature description data such as a shape evaluation value, Fourier descriptor, power spectrum,... Is generated based on the extracted contour shape. (Step G04).

併せて、第3の特徴抽出処理としてテクスチャの特徴抽出を行ない(ステップG05)、次いで抽出したテクスチャに基づいた、輝度ヒストグラム、フーリエスペクトル、共起行列、自己相関関数、‥‥などの特徴記述データの作成を行なう(ステップG06)。   In addition, texture feature extraction is performed as a third feature extraction process (step G05), and feature description data such as a luminance histogram, Fourier spectrum, co-occurrence matrix, autocorrelation function,... Is created (step G06).

併せて、第4の特徴抽出処理として位置・配置の特徴抽出を行ない(ステップG07)、次いで抽出した位置・配置に基づいた、位置座標、DCT係数、‥‥などの特徴記述データの作成を行なう(ステップG08)。   At the same time, position / placement feature extraction is performed as a fourth feature extraction process (step G07), and feature description data such as position coordinates, DCT coefficients,... Are then created based on the extracted position / placement. (Step G08).

以下、いくつかの予め決定した特徴抽出処理を行なった後、最後、第xの特徴抽出処理として動きの抽出を行ない(ステップG09)、次いで抽出した動き量に基づいた、動きベクトル、強度分布、‥‥などの特徴記述データの作成を行なう(ステップG10)。   Hereinafter, after performing some predetermined feature extraction processes, finally, motion is extracted as the x-th feature extraction process (step G09), and then a motion vector, an intensity distribution based on the extracted motion amount, Feature description data such as... Is created (step G10).

予め決定されているすべての特徴抽出処理を終えた後に図25の処理に戻り、認識処理を行なうか否かの判断を事前の設定内容に基づいて判断する(ステップF11)。   After all the predetermined feature extraction processes are completed, the process returns to the process of FIG. 25 to determine whether or not to perform the recognition process based on the previously set contents (step F11).

ここで、認識処理を行なうと判断した場合には、さらに認識対象のテンプレートデータをシーン・撮影条件の統計データメモリ91から読出し(ステップF12)、読出したテンプレートデータによるテンプレートマッチング、または相関度、類似度、類似距離、差分和の算出などによる認識処理を実行する(ステップF13)。   If it is determined that recognition processing is to be performed, template data to be recognized is further read out from the scene / photographing condition statistical data memory 91 (step F12), template matching by the read template data, or the degree of correlation or similarity. A recognition process such as calculation of degree, similarity distance, and difference sum is executed (step F13).

その後、抽出した特徴データ、及び上記ステップF11で認識処理を行なうと判断した場合に続くステップF13で得られる認識処理結果を圧縮符号化・伸長復号化88へ出力し(ステップF14)、以上でステップA07での特徴抽出処理を終える。   Thereafter, the extracted feature data and the recognition processing result obtained in step F13 following the determination that the recognition processing is performed in step F11 are output to the compression encoding / decompression decoding 88 (step F14). The feature extraction process at A07 ends.

次いで特徴抽出処理の各具体的な処理内容について以下にそのいくつかを詳述する。
図27は、上記図26のステップG03に係る輪郭抽出処理と続くステップG04に係る特徴記述データの作成の内容について示すものである。
その当初に、特徴抽出/認識処理部90は被写体の画像データを読込み(ステップH01)、読込んだ画像データを輝度階調値または色差信号に基づいて複数領域に分割する(ステップH02)。
Next, some specific processing contents of the feature extraction processing will be described in detail below.
FIG. 27 shows the contents of the outline extraction process in step G03 of FIG. 26 and the feature description data creation in step G04.
Initially, the feature extraction / recognition processing unit 90 reads the image data of the subject (step H01), and divides the read image data into a plurality of regions based on the luminance gradation value or the color difference signal (step H02).

図28(A)は、上記ステップH01で読込んだ被写体の画像データをの一例を示すものであり、このような画像を読込んだ場合には上記ステップH02で複数領域に分割することで、例えば図28(B)に示す画像と図28(C)に示す画像とが得られる。   FIG. 28A shows an example of the image data of the subject read in step H01. When such an image is read, it is divided into a plurality of areas in step H02. For example, the image shown in FIG. 28B and the image shown in FIG. 28C are obtained.

こうして分割した複数の領域のうちの1つを種なる被写体として選択し(ステップH03)、選択した領域の画像を2値化した上で(ステップH04)、そのエッジを検出する(ステップH05)。   One of the plurality of regions thus divided is selected as a seed subject (step H03), the image of the selected region is binarized (step H04), and the edge is detected (step H05).

上記図28(B),(C)に示す2つの画像データのうち、図28(C)に示した画像を選択して2値化した場合を図28(D)に示し、そのエッジを検出した結果を図28(E)に示す。   FIG. 28D shows the case where the image shown in FIG. 28C is selected from the two image data shown in FIGS. 28B and 28C and binarized, and the edge is detected. The result is shown in FIG.

こうして得た輪郭線に対し、複数N辺の等辺多角形や折れ線等で近似した後(ステップH06)、該輪郭線のP(Phase)型記述子などフーリエ記述子を求めた上で(ステップH07)、パワースペクトルを求める(ステップH08)。   After approximating the contour line obtained in this way with equilateral polygons or polygonal lines of a plurality of N sides (step H06), a Fourier descriptor such as a P (Phase) type descriptor of the contour line is obtained (step H07). ) A power spectrum is obtained (step H08).

図28(F)は、上記図28(E)で示したエッジ検出結果に対し、折れ線近似した結果を示すものであり、当該輪郭線のフーリエ記述子を求めることで空間周波数に対するスペクトル正規価値を得てパワースペクトル化したものを図28(G)に示す。   FIG. 28 (F) shows a result obtained by approximating a polygonal line to the edge detection result shown in FIG. 28 (E). By obtaining a Fourier descriptor of the contour line, the spectral normal value with respect to the spatial frequency is obtained. The obtained power spectrum is shown in FIG.

このパワースペクトルの低周波成分からn個の成分を取出し、データ圧縮して輪郭線特徴データとするもので(ステップH09)、この求めた輪郭線特徴データを後の特徴記述データ作成時のためにデータメモリ93に一時的に記憶しておく(ステップH10)。   N components are extracted from the low frequency components of the power spectrum and compressed into contour feature data (step H09). The obtained contour feature data is used for later feature description data creation. It is temporarily stored in the data memory 93 (step H10).

次いで、特徴量をシーン・撮影条件の統計データメモリ91に記憶済みのテンプレートデータと順次比較し、類似度を求める(ステップH11)。   Next, the feature amount is sequentially compared with the template data stored in the scene / photographing condition statistical data memory 91 to obtain the similarity (step H11).

図29は、輪郭線特徴データの比較対象となる、シーン・撮影条件の統計データメモリ91に予め記憶されたテンプレートデータの内容を例示するものである。   FIG. 29 exemplifies the contents of the template data stored in advance in the scene / photographing condition statistical data memory 91 to be compared with the contour feature data.

被写体の輪郭線特徴データを用い、各テンプレート毎にその類似度を求めた上で、最も類似度の値が高くなったテンプレートデータに対応する種類であるものと判定して、当該種類の特徴データを記述し(ステップH12)、その特徴記述データを出力することで(ステップH13)、以上でこの図27のサブルーチン処理を終える。   After determining the similarity for each template using the contour line feature data of the subject, it is determined that the type corresponds to the template data with the highest similarity value, and the type of feature data Is described (step H12), and the feature description data is output (step H13), thus completing the subroutine processing of FIG.

図30は、上記図26のステップG01に係る色領域の抽出処理後に続くステップG02で実行される特徴記述データの作成処理中、代表色の抽出処理の内容について示すものである。
その当初に、特徴抽出/認識処理部90は被写体の画像データを読込み(ステップI01)、読込んだ画像データを輝度階調値または色差信号に基づいて複数の輪郭領域に分割する(ステップI02)。
FIG. 30 shows the contents of the representative color extraction processing during the feature description data creation processing executed in step G02 following the color region extraction processing in step G01 of FIG.
Initially, the feature extraction / recognition processing unit 90 reads the image data of the subject (step I01), and divides the read image data into a plurality of contour regions based on the luminance gradation value or the color difference signal (step I02). .

分割した複数の輪郭領域に対し、面積の大きい順序、または画像中央のフォーカス枠に近い順序で1〜n個の被写体領域を選択し(ステップI03)、各分割領域毎のRGB別ヒストグラム分布Pr(i),Pg(i),Pb(i)を求める(ステップI04)。   With respect to the plurality of divided contour regions, 1 to n subject regions are selected in the order of increasing area or the order close to the focus frame at the center of the image (step I03), and the histogram distribution Pr for each RGB for each divided region ( i), Pg (i), Pb (i) are obtained (step I04).

次いで、求めたヒストグラム分布Pr(i),Pg(i),Pb(i)がそれぞれ全体で総和が「1.0」となるように正規化した上で(ステップI05)、各ヒストグラムPr(i),Pg(i),Pb(i)の最頻値μ,μ、μを求める(ステップI06)。すなわち、
μ=Max(Pr(i))、
μ=Max(Pg(i))、
μ=Max(Pb(i))。
である。
Next, the obtained histogram distributions Pr (i), Pg (i), and Pb (i) are normalized so that the sum total is “1.0” as a whole (step I05), and then each histogram Pr (i ), Pg (i), and Pb (i), the mode values μ r , μ g , and μ b are obtained (step I06). That is,
μ r = Max (Pr (i)),
μ g = Max (Pg (i)),
μ b = Max (Pb (i)).
It is.

次に、該RGBヒストグラムPr(i),Pg(i),Pb(i)の平均μを求める(ステップI07)。すなわち、
μ=Σi・Pr(i)、
μ=Σi・Pg(i)、
μ=Σi・Pb(i)。
Next, an average μ of the RGB histograms Pr (i), Pg (i), and Pb (i) is obtained (step I07). That is,
μ r = Σi · Pr (i),
μ g = Σi · Pg (i),
μ b = Σi · Pb (i).

そして、上記求めた平均を用いてRGBヒストグラムPr(i),Pg(i),Pb(i)の分散σを求める(ステップI08)。すなわち、
σ =Σ(i−μ)・Pr(i)、
σ =Σ(i−μ)・Pg(i)、
σ =Σ(i−μ)・Pb(i)。
Then, the variance σ 2 of the RGB histograms Pr (i), Pg (i), and Pb (i) is obtained using the obtained average (step I08). That is,
σ r 2 = Σ (i−μ r ) 2 · Pr (i),
σ g 2 = Σ (i−μ g ) 2 · Pg (i),
σ b 2 = Σ (i−μ b ) 2 · Pb (i).

こうして得た各領域のRGBヒストグラムの最頻値または平均値を代表色とし、その代表色とRGBの分散値を色の特徴データとして記述して出力することで(ステップI09)、以上で図30のサブルーチン処理を終了する。   The mode value or average value of the RGB histogram of each region thus obtained is used as a representative color, and the representative color and RGB variance are described and output as color characteristic data (step I09). The subroutine processing is terminated.

図31は、上記図30と同様に図26のステップG01に係る色領域の抽出処理後に続くステップG02で実行される特徴記述データの作成処理中、色の分布の抽出処理の内容について示すものである。
その当初に、特徴抽出/認識処理部90は撮影した画像またはその撮影画像中の予め設定されている領域部分を読込み(ステップJ01)、読込んだ画像データを縦m画素×横n画素のブロック単位で分割して複数のブロック領域とする(ステップJ02)。
FIG. 31 shows the contents of the color distribution extraction process during the feature description data creation process executed in step G02 following the color region extraction process in step G01 of FIG. is there.
At the beginning, the feature extraction / recognition processing unit 90 reads a captured image or a preset region portion in the captured image (step J01), and reads the read image data in a block of m vertical pixels × n horizontal pixels. A plurality of block regions are divided into units (step J02).

次いで各ブロック毎にその平均色を算出し(ステップJ03)、各ブロック毎に算出した平均色を原色系RGB空間または輝度色差系YCbCr空間でDFT(Discrete Fourier Trasform:離散フーリエ変換)またはDCT(Discrete Cosine Trasform:離散コサイン変換)により直交変換を施すことで空間周波数成分軸に変換して各係数を求める(ステップJ04)。   Next, the average color is calculated for each block (step J03), and the average color calculated for each block is converted into DFT (Discrete Fourier Transform) or DCT (Discrete transform) in the primary color RGB space or luminance color difference system YCbCr space. Each coefficient is obtained by performing orthogonal transformation by Cosine Trasform (discrete cosine transformation) to convert to a spatial frequency component axis (step J04).

該直交変換した結果のDC成分に近い側の低周波成分の係数をジグザグスキャンにより走査して一次元化し(ステップJ05)、この一次元化した各係数をそのまま量子化してデジタル符号化した数列を得る(ステップJ06)。   The low-frequency component coefficient closer to the DC component as a result of the orthogonal transformation is scanned by zigzag scanning to make it one-dimensional (step J05), and each one-dimensionalized coefficient is directly quantized and digitally encoded as a sequence of numbers. Obtain (step J06).

このデジタル符号化した数列を色分布の特徴データとして記述して出力することで(ステップJ07)、以上で図31のサブルーチン処理を終了する。   By describing and outputting the digitally encoded number sequence as color distribution feature data (step J07), the subroutine processing of FIG. 31 is completed.

次に、図示しないが画像データからの色相の抽出、肌色部分の抽出、人間の顔の抽出を行なう場合の動作についても簡単に説明しておく。   Next, although not shown in the figure, the operation in the case of extracting the hue from the image data, the skin color portion, and the human face will be briefly described.

所定の色の領域を抽出する例として、人間の肌色領域の抽出を考えた場合、人間の肌の分光反射率特性、または撮影画像の所定領域の代表色のRGB値またはHSB(Hue:色相、Saturation:彩度、value of Brightness:明度)値などを元に肌色の領域や人間の肌や顔の領域を抽出できる。   As an example of extracting a region of a predetermined color, when extraction of a human skin color region is considered, spectral reflectance characteristics of human skin, or an RGB value or HSB (Hue: hue of a representative color of a predetermined region of a captured image, It is possible to extract a skin color area, a human skin area, or a face area based on the Saturation value, the value of brightness, and the brightness value.

例えば、肌色の色相(Hue)と彩度(Saturation)の分布データを取ると、肌色の画像データの多くは、彩度は広い範囲で分布するが、色相環では約6°〜38°の範囲内に分布することが知られている。   For example, when distribution data of skin color hue (Hue) and saturation (Saturation) is taken, most of the skin color image data has a wide range of saturation, but the hue circle has a range of about 6 ° to 38 °. It is known to be distributed within.

したがって、この点を利用すれば、HSB値から色相が約6°〜38°の範囲を人間の顔の肌色として認識するなど、特定の色の被写体の領域を適宜抽出することができる。   Therefore, if this point is used, a region of a subject with a specific color can be extracted as appropriate, such as recognizing a range of hues of approximately 6 ° to 38 ° as the skin color of a human face from the HSB value.

同様に、特定の被写体や注目する被写体別に専用の認識処理を必要とする場合があり、例えば顔の眼の領域を抽出するためには、瞳領域のマスクパターンを作成し、これを参照パターンとしてテンプレートマッチング等を用いて探索し、入力画像から眼や顔のある画像領域を特定することができる。   Similarly, a specific recognition process may be required for each specific subject or subject of interest. For example, in order to extract an eye area of a face, a mask pattern of a pupil area is created and used as a reference pattern. A search can be performed using template matching or the like, and an image region with an eye or a face can be specified from the input image.

また、特に眼を認識するための条件として、例えば眼の細長さ=b/a(a:眼の縦方向長さ、b:眼の横方向長さ)として、α1≦b/a≦α2(α1,α2:定数)の条件に合致するか、または眼の面積をS1≒π×a×b、黒目部分の面積S2=πr(r:黒目部分の直径)として、黒目の比率S2/S1がβ1≦S2/S1≦β2(β1,β2:定数)の条件に合致する被写体画像の領域を「眼の領域」と識別することができる。 In particular, as a condition for recognizing the eye, for example, when the length of the eye = b / a (a: the length of the eye in the vertical direction, b: the length of the eye in the horizontal direction), α1 ≦ b / a ≦ α2 ( α1 and α2: constants) or the area of the eye is S1≈π × a × b, the area of the black eye part S2 = πr 2 (r: the diameter of the black eye part), and the ratio S2 / S1 of the black eye The region of the subject image that satisfies the condition of β1 ≦ S2 / S1 ≦ β2 (β1, β2: constant) can be identified as the “eye region”.

さらに、人間の顔と認識するための条件データとして、例えば眉下から鼻下までの長さh1と鼻下からあご先までの長さh2とが略等しいか、右目の幅W1と両眼の間の長さW2、及び左目の幅W3が共に略等しい、などの条件を満たす被写体画像の領域を「顔の領域」であると識別できる。   Furthermore, as condition data for recognizing a human face, for example, the length h1 from the eyebrow to the nose and the length h2 from the nose to the chin are substantially equal, or the right eye width W1 and the binocular A region of the subject image that satisfies a condition such that the length W2 between them and the width W3 of the left eye are both substantially equal can be identified as a “face region”.

次に図32によりモーションJPEGファイル(AVIファイル)またはMPEG(−1,2,4)ファイルを構成する被写体画像に対して行なう動きの特徴抽出処理について述べる。   Next, a motion feature extraction process performed on the subject image constituting the motion JPEG file (AVI file) or MPEG (-1, 2, 4) file will be described with reference to FIG.

この図32は、図26のステップG09に係る動きの抽出処理と、それに続くステップG10で実行される特徴記述データの作成処理の内容について示すものである。
その当初に、特徴抽出/認識処理部90は時間的に連続した複数の画像を読込み(ステップK01)、読込んだ各画像データを例えば縦m画素×横n画素のブロック単位で分割して複数のブロック領域とする(ステップK02)。
FIG. 32 shows the contents of the motion extraction process in step G09 of FIG. 26 and the feature description data creation process executed in step G10.
Initially, the feature extraction / recognition processing unit 90 reads a plurality of temporally continuous images (step K01), and divides each read image data into, for example, a block unit of vertical m pixels × horizontal n pixels. Block area (step K02).

各画像の各ブロックの輝度値または色差値を、時間的に直前に位置する画像とテンプレートマッチングし、その移動方向と移動量を抽出する(ステップK03)。   The luminance value or the color difference value of each block of each image is template-matched with the image positioned immediately before in time, and the moving direction and moving amount are extracted (step K03).

各分割ブロック毎に移動方向と移動量を量子化して、各ブロックの動きベクトルを求めた上で(ステップK04)、各画像、各ブロック毎の動きベクトル(移動方向及び移動量)を、動きの特徴データとして記述して出力することで(ステップK0507)、以上で図32のサブルーチン処理を終了する。   After quantizing the moving direction and moving amount for each divided block to obtain the motion vector of each block (step K04), the motion vector (moving direction and moving amount) for each image and each block is converted into the motion vector. By describing and outputting as feature data (step K0507), the subroutine processing of FIG. 32 is completed.

なお、図示はしないが、特徴量の比較や類似図形の探索、相関度、テンプレートマッチングの類似度、絶対値差分和と距離の各要因についても説明しておく。   Although not shown in the drawings, the factors of feature amount comparison, similar figure search, correlation, similarity of template matching, absolute value difference sum, and distance will also be described.

(特徴量の比較と類似図形の探索)
記憶されたテンプレート画像と被写体画像の類似度の判別や探索には、テンプレートマッチングなどのパターンマッチング方や、動きベクトル検出におけるブロックマッチング方が利用できる。
(Comparison of features and search for similar figures)
A pattern matching method such as template matching or a block matching method in motion vector detection can be used to determine or search the similarity between the stored template image and the subject image.

テンプレートマッチングにより特徴抽出領域の入力画像f[i,j]の特徴データの中から、例えば(m×n)の記録された参照画像または特徴データt[k,l]に一致する画像の位置を検出する。参照画像の中心もしくは端点が、入力画像のある点(i,j)に重なるように置いて、点(i,j)を順にラスタ走査しながら、重なる部分の画像データの類似度を順次計算して、類似度が最も高い位置の点(i,j)を、類似した被写体がある位置として求めることができる。   From the feature data of the input image f [i, j] in the feature extraction region by template matching, for example, the position of the image that matches the reference image or feature data t [k, l] recorded in (m × n). To detect. The center or end point of the reference image is placed so that it overlaps a certain point (i, j) of the input image and the point (i, j) is sequentially scanned in raster, and the similarity of the image data in the overlapping part is calculated sequentially. Thus, the point (i, j) at the position with the highest degree of similarity can be obtained as the position where there is a similar subject.

(相関度(相関関数))
入力画像f[i,j]とテンプレート画像値参照画像t[k,l]との相関度は、受信機のピアソンの相関係数(積率相関係数)Rなどで算出することができ、最も相関関数Rの値が大きくなる位置が、探索する類似被写体がある位置として求められる。

Figure 0004867428
(Correlation degree (correlation function))
The degree of correlation between the input image f [i, j] and the template image value reference image t [k, l] can be calculated by the Pearson correlation coefficient (product moment correlation coefficient) R of the receiver, etc. The position where the value of the correlation function R is the largest is obtained as the position where there is a similar subject to be searched.
Figure 0004867428

(テンプレートマッチングの類似度)
テンプレートマッチングなど、画像f[i,j]の中から、画像サイズ(m×n)の画像t[k,l]を走査して探索する場合、類似度は次式で計算することができ、類似度R(i,j)が最も大きくなる走査位置の点(i,j)が、類似する被写体の位置として求まる。

Figure 0004867428
(Similarity of template matching)
When searching for an image t [k, l] having an image size (m × n) from images f [i, j] such as template matching, the similarity can be calculated by the following equation: The point (i, j) at the scanning position where the similarity R (i, j) is the largest is obtained as the position of the similar subject.
Figure 0004867428

これを上述の相関関数Rと同様に、平均値を差し引くなど正規化して用いても良い。
(絶対値差分和と距離)
上記の類似度R(i,j)では乗算であるために計算量が増えるので、2値化画像など、平均値を差し引いたり、正規化を省略できる場合などには上記類似度の計算に変えて、次式のような画像間の差分和により、相違の程度(「距離」)を表すD(i,j)を求め、これを評価関数として利用することができる。
Similar to the correlation function R described above, this may be normalized and used, for example, by subtracting the average value.
(Absolute difference sum and distance)
Since the amount of calculation increases because the similarity R (i, j) is a multiplication, when the average value can be subtracted or normalization can be omitted, such as a binarized image, the calculation is changed to the similarity calculation. Thus, D (i, j) representing the degree of difference (“distance”) can be obtained from the sum of differences between images as in the following equation, and this can be used as an evaluation function.

この場合には、加減算だけで計算できるために演算を高速化することができるもので、距離D(i,j)が最も小さい点(i,j)がマッチング位置を表すものとなる。

Figure 0004867428
In this case, since calculation can be performed only by addition and subtraction, the operation can be speeded up, and the point (i, j) with the smallest distance D (i, j) represents the matching position.
Figure 0004867428

次いで図33により輝度ヒストグラムによるテクスチャ解析について述べる。   Next, texture analysis using a luminance histogram will be described with reference to FIG.

この図33は、図26のステップG05に係るテクスチャの特徴抽出処理と、それに続くステップG06で実行される特徴記述データの作成処理の内容について示すものである。
その当初に、特徴抽出/認識処理部90は被写体の画像データを読込み(ステップL01)、読込んだ画像データから輝度ヒストグラムP(i)を求める(ステップL02)。
FIG. 33 shows the contents of the texture feature extraction process in step G05 of FIG. 26 and the feature description data creation process executed in step G06.
Initially, the feature extraction / recognition processing unit 90 reads the image data of the subject (step L01), and obtains the luminance histogram P (i) from the read image data (step L02).

次いで、全体の総和が1.0となるように当該ヒストグラムを正規化した後(ステップL03)、輝度ヒストグラムの平均値μと分散σとを求める(ステップL04,L05)。すなわち、
μ=Σi・P(i)、
σ=Σ(i−μ)・P(i)、
さらに、歪み度S(Skewness)及び尖り度K(Kurtosis)を求める(ステップL06,L07)。すなわち、 。
Next, after normalizing the histogram so that the total sum is 1.0 (step L03), the average value μ and variance σ 2 of the luminance histogram are obtained (steps L04 and L05). That is,
μ = Σi · P (i),
σ 2 = Σ (i−μ) 2 · P (i),
Further, the degree of distortion S (Skewness) and the degree of kurtosis K (Kurtosis) are obtained (steps L06 and L07). That is.

S=(Σ(i−μ)・P(i))/σ
K=(Σ(i−μ)・P(i))/σ
こうして得た歪み度Sを特徴抽出データf1、尖り度Kを同データf2とし、共にテクスチャの特徴データとして記述して出力することで(ステップL08)、以上で図33のサブルーチン処理を終了する。
S = (Σ (i−μ) 3 · P (i)) / σ 3
K = (Σ (i−μ) 4 · P (i)) / σ 4
The distortion degree S thus obtained is feature extraction data f1, the kurtosis K is the same data f2, and both are described and output as texture feature data (step L08), thus completing the subroutine processing of FIG.

なお、上述したテクスチャの特徴抽出の方法の他にも、例えばフーリエスペクトルからテクスチャ解析する方法を用いるものとしてもよい。
この場合、離散2次元フーリエ変換したフーリエスペクトル
F(u,v)=ΣΣf(x,y)W1xuW2yv
(但し、W1=exp(−j2π/M)、
W2=exp(−j2π/N)。)
を求めることでF(u,v)のパワースペクトル
P(u,v)=|F(u,v)|
を算出し、これを極座標形式のP(r,θ)に変換して、原点を中心としたドーナツ形領域のエネルギーの和p(r)、及び角度θの扇形領域内のエネルギーの和q(θ)を求め、

Figure 0004867428
In addition to the above-described texture feature extraction method, for example, a texture analysis method from a Fourier spectrum may be used.
In this case, Fourier spectrum obtained by discrete two-dimensional Fourier transform
F (u, v) = ΣΣf (x, y) W1 xu W2 yv
(W1 = exp (−j2π / M),
W2 = exp (−j2π / N). )
Is the power spectrum of F (u, v)
P (u, v) = | F (u, v) | 2
Is converted into P (r, θ) in the polar coordinate format, and the energy p (r) of the donut-shaped region centered at the origin and the energy q ( θ)
Figure 0004867428

そのヒストグラム分布のピーク、平均、分散などの統計量から、例えばP(r)のピークによりテクスチャの「きめ」の大きさを、q(θ)のピークによりテクスチャ画素の方向性など、テクスチャの特徴量を抽出して特徴データを抽出し、出力するようにしてもよい。   From the statistics such as the peak, average, and variance of the histogram distribution, the texture characteristics such as the texture “mesh” size by the P (r) peak and the texture pixel directionality by the q (θ) peak, for example. The feature data may be extracted by extracting the quantity and output.

さらには、輝度の共起行列を用いてテクスチャの特徴を抽出するものとしてもよい。
すなわち、画像f(x,y)において、画素f(x1,y1)から距離d、角度θの位置関係(d,θ)にある画素f(x2,y2)の輝度をd(1,2,‥‥)、θ(0度、45度、90度、135度など)を変えて順次求め、
(但し、d=max(|x1=x2|,|y1−y2|))
位置関係(d,θ)にある2点の輝度がそれぞれ
f(x1,y1)=i、
f(x2,y2)=j
の対となる頻度(ヒストグラム)を集計して、輝度の共起行列P(i,j;d,θ)を求め、正規化した共起行列
p(i,j)=P(i,j)/ΣΣ(i,j)
から、全体の均一性を表す角2次モーメント(Angular second moment)
f1=ΣΣ(p(i,j))
局所変化を表すコントラスト(Comtrast)
f2=Σ(np(i,j))
方向に関する相関(Correlation)
f3=ΣΣ(p(i,j)p(i,j)−μ)/σ
(但し、μ=Σp(i)=1/g(g:階調数)、
σ=√(Σ(p(i)−μ)/(g−1))、
局所同質性を表す平方和(Sum of Squares)
f4=ΣΣ((i−μ)p(i,j))
複雑さの測度を表す逆差分モーメント(Inverse difference Moment)
f5=ΣΣ(p(i,j)/(1+(i−j)))
などを求めて、テクスチャの特徴データとすることができる。
Furthermore, texture features may be extracted using a luminance co-occurrence matrix.
That is, in the image f (x, y), the luminance of the pixel f (x2, y2) in the positional relationship (d, θ) at the distance d and the angle θ from the pixel f (x1, y1) is represented by d (1, 2, ……), θ (0 degrees, 45 degrees, 90 degrees, 135 degrees, etc.)
(However, d = max (| x1 = x2 |, | y1-y2 |))
The brightness of two points in the positional relationship (d, θ)
f (x1, y1) = i,
f (x2, y2) = j
The frequency (histogram) that is paired with each other is calculated to obtain a luminance co-occurrence matrix P (i, j; d, θ), and the normalized co-occurrence matrix
p (i, j) = P (i, j) / Σ i Σ j (i, j)
From the angular second moment that represents the overall uniformity
f1 = ΣΣ (p (i, j)) 2 ,
Contrast representing local changes (Comtrast)
f2 = Σ (n 2 p (i, j))
Correlation about direction
f3 = ΣΣ (p (i, j) p (i, j) −μ 2 ) / σ 2
(Where μ = Σp (i) = 1 / g (g: number of gradations),
σ = √ (Σ (p (i) −μ) / (g−1)),
Sum of squares representing local homogeneity
f4 = ΣΣ ((i−μ) 2 p (i, j))
Inverse difference moment representing a measure of complexity
f5 = ΣΣ (p (i, j) / (1+ (i−j)))
Etc. can be obtained and used as texture feature data.

または、高次局所自己相関関数によりテクスチャの特徴量を抽出してもよい。
具体的には、各画素のRGB成分をYIQ成分に変換し、Y画像、値に画像、Q画像を得て、設定された特徴に応じて(n×n)画素の複数のマスクパターン1〜25の参照点を重ね合わせ、各画素の輝度値f(i,j)と掛け合わせ(論理積)、次のような特徴ベクトルC1〜C25を求める。
Or you may extract the feature-value of a texture with a high-order local autocorrelation function.
Specifically, the RGB component of each pixel is converted to a YIQ component to obtain a Y image, an image as a value, and a Q image, and a plurality of mask patterns 1 to (n × n) pixels according to the set characteristics. 25 reference points are overlapped and multiplied by the luminance value f (i, j) of each pixel (logical product) to obtain the following feature vectors C1 to C25.

C1=ΣΣ(f(i,j))、
C2=ΣΣ(f(i,j)f(i+1,j))、
‥‥
C5=ΣΣ(f(i,j)f(i-1,j+1))、
C6=ΣΣ(f(i,j)f(i-1,j)f(i+1,j))、
‥‥
C25=ΣΣ(f(i,j)f(i-1,j+1)f(i+1,j+1))、
上記のC1〜C25を加算(積和)して
Ci=Ci/Σj(Cj)(i,j=1,2,‥‥,25)
とし、各YIQ画像毎に求めた局所自己相関による特徴ベクトルC1〜C25、またはその統計量を、テクスチャの特徴データとして記述して出力するようにすればよい。
C1 = Σ i Σ j (f (i, j)),
C2 = Σ i Σ j (f (i, j) f (i + 1, j)),
...
C5 = Σ i Σ j (f (i, j) f (i−1, j + 1)),
C6 = Σ i Σ j (f (i, j) f (i−1, j) f (i + 1, j)),
...
C25 = Σ i Σ j (f (i, j) f (i−1, j + 1) f (i + 1, j + 1)),
Add (sum of products) the above C1 to C25
Ci = Ci / Σj (Cj) (i, j = 1, 2,..., 25)
The feature vectors C1 to C25 obtained by local autocorrelation obtained for each YIQ image, or their statistics may be described and output as texture feature data.

図34は、上述した如く多数のユーザの所有するデジタルカメラ10からの撮影履歴情報を集計した統計データをサーバ装置112からダウンロードしてデジタルカメラ10内のシーン・撮影条件の統計データメモリ91に記憶させ、このシーン・撮影条件の統計データメモリ91に記憶させた内容に基づいて撮影シーンの選択を行なう場合の選択肢を、撮影後に抽出される特徴データ、及び抽出時に類似比較されるテンプレート画像と共に示すものである。   34, the statistical data obtained by compiling the photographing history information from the digital cameras 10 owned by many users as described above is downloaded from the server device 112 and stored in the statistical data memory 91 of scenes and photographing conditions in the digital camera 10. The options for selecting a shooting scene based on the contents stored in the statistical data memory 91 of the scene / shooting condition are shown together with feature data extracted after shooting and a template image that is compared at the time of extraction. Is.

同図に示す如く、シーン別撮影モードには「人物」「子供」「風景」‥‥「夜景と人物」「文字」等の大分類と、例えば大分類「人物」内の「一人」「複数」「ツーショット」‥‥等の小分類とがあり、ユーザがシーン別撮影モードを選択することで、その撮影モードに対応した各種撮影条件が自動的に設定されるものとなる。   As shown in the figure, the scene-specific shooting modes include large categories such as “person”, “children”, “landscape”, “night view and person”, “character”, etc., for example, “one person” and “multiple” in the large classification “person”. There are small classifications such as “two-shot”, etc., and when the user selects a scene-specific shooting mode, various shooting conditions corresponding to the shooting mode are automatically set.

例えば、大分類の「人物」では、共通して色強調が肌色に設定され、且つ露出時にシャッタ速度が比較的早めに設定されることで被写界深度が浅くなり、特にズーム位置を望遠側にした場合に被写体周囲が適度にぼけて人物を浮かび上がらせる設定となるもので、AFを行なう位置が小分類「一人」では縦横とも画面中央に、同小分類「ツーショット」では縦方向は画面中央ながら横方向では画面中央より左右にそれぞれ離れた位置に設定されるなど、より細かい設定が実行され、その点が抽出する特徴データ等にも反映される。   For example, in the “Class” category, the color emphasis is set to the skin color in common, and the shutter speed is set relatively fast during exposure, resulting in a shallow depth of field. In this case, the area around the subject will be moderately blurred and the person will be raised. On the other hand, in the horizontal direction, finer settings are performed, such as setting the positions to the left and right of the center of the screen, and the points are reflected in the extracted feature data.

図35及び図36は、上述したシーン・撮影条件の統計データメモリ91に記憶される内容に基づいたシーン別撮影モードの撮影制御項目を例示するものである。上記図34で示したシーン別撮影モードの大分類の内容のみ、例えば大分類が「人物」であれば「人物を写します」のような見出しでシリアル番号「SP n」(「SP」はシーン別プログラムの意)及び小分類にも対応したテンプレート画像と共に示し、画面下部でユーザに理解し易い撮影制御項目を必要に応じて注意点等と共に解説している。   FIG. 35 and FIG. 36 exemplify shooting control items in the shooting mode for each scene based on the contents stored in the above-described scene / shooting condition statistical data memory 91. Only the contents of the major classification of the scene-by-scene shooting mode shown in FIG. 34 above, for example, if the major classification is “person”, the serial number “SP n” (“SP” is the scene This is shown together with a template image corresponding to another program) and sub-classification, and the shooting control items that are easy to understand for the user at the bottom of the screen are explained together with precautions as necessary.

このようなシーン別撮影モードの内容を、デジタルカメラ10のユーザはデジタルカメラ10をパーソナルコンピュータ110等と接続するだけでサーバ装置112との通信により自動的に更新設定することができる。   The user of the digital camera 10 can automatically update and set the contents of such a scene-specific shooting mode by communicating with the server device 112 only by connecting the digital camera 10 to the personal computer 110 or the like.

このように、撮影した画像の特徴抽出を行なってこれを元の画像データと関連付けて記憶するものとしたので、撮影した画像の内容から所望の画像を検索するなど、撮影により得た画像データの内容を有効に活用することが可能となるだけでなく、例えばパーソナルコンピュータ等の外部の情報処理装置を利用して、撮影条件と撮影結果との相関や撮影条件と撮影シーンとの相関などの分析を行なわせるべく外部出力する際に、必ずしも撮影画像そのものまで出力する必要がないので、例えば外部出力の負荷が重い場合やプライベートな撮影画像を外部出力したくない場合でも問題なく対応することができる。   As described above, since the feature extraction of the captured image is performed and stored in association with the original image data, a desired image is retrieved from the content of the captured image. Not only can the contents be used effectively, but also using an external information processing device such as a personal computer to analyze the correlation between shooting conditions and shooting results and the correlation between shooting conditions and shooting scenes, etc. When outputting externally, it is not always necessary to output the captured image itself. For example, even when the load of external output is heavy or when a private captured image is not desired to be output externally, it can be handled without any problem. .

加えて、例えば広域ネットワークを介して複数のデジタルカメラ10からの情報を収集可能なサーバ装置に対し、集計や分析に有効な情報を各デジタルカメラ10が共通して提供することができる。   In addition, for example, each digital camera 10 can provide information effective for aggregation and analysis to a server device that can collect information from a plurality of digital cameras 10 via a wide area network.

さらに、多くの人々が様々なシーンの撮影に際して設定している撮影パラメータを誰でも有効に活用することができると共に、所望の撮影結果を得るために必要な撮影条件を自己の経験だけに頼らず、他人の撮影結果を参考として決定することができる。   In addition, anyone can effectively use the shooting parameters set by many people when shooting various scenes, and the shooting conditions necessary to obtain the desired shooting results are not dependent on their own experience. The other person's photographing result can be determined as a reference.

また、サーバ装置112からの統計データ等をダウンロードするにあたっては、デジタルカメラ10の機種情報等を参照して、必要な情報のみをサーバ装置112からダウンロードするため、無駄な通信を行なうことなく、所有するデジタルカメラ10に適した各種の情報のみを自動的に選別して取得し、活用することが可能となる。   In addition, when downloading statistical data from the server device 112, since only necessary information is downloaded from the server device 112 with reference to model information of the digital camera 10, it is owned without wasteful communication. Only various types of information suitable for the digital camera 10 can be automatically selected and acquired and used.

その他、本発明は上記実施の形態に限らず、その要旨を逸脱しない範囲内で種々変形して実施することが可能であるものとする。   In addition, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention.

さらに、上記実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組合わせにより種々の発明が抽出され得る。例えば、実施の形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, at least one of the problems described in the column of the problem to be solved by the invention can be solved, and described in the column of the effect of the invention. In a case where at least one of the obtained effects can be obtained, a configuration in which this configuration requirement is deleted can be extracted as an invention.

本発明の第1の実施の形態に係るデジタルカメラの主として外観構成を示す図。1 is a diagram mainly showing an external configuration of a digital camera according to a first embodiment of the present invention. 同実施の形態に係る他の外観構成を示す図。The figure which shows the other external appearance structure which concerns on the same embodiment. 同実施の形態に係る概念的なシステム構成を示すブロック図。FIG. 2 is a block diagram showing a conceptual system configuration according to the embodiment. 同実施の形態に係る具体的な回路構成と外部機器との接続とを示すブロック図。The block diagram which shows the specific circuit structure and connection with an external apparatus which concern on the embodiment. 同実施の形態に係る電源投入後からの全般的な処理内容を示すフローチャート。The flowchart which shows the general processing content after the power activation which concerns on the embodiment. 同実施の形態に係る電源投入後からの全般的な処理内容を示すフローチャート。The flowchart which shows the general processing content after the power activation which concerns on the embodiment. 同実施の形態に係る電源投入後からの全般的な処理内容を示すフローチャート。The flowchart which shows the general processing content after the power activation which concerns on the embodiment. 同実施の形態に係る設定モード下での特徴抽出の処理内容を示すフローチャート。The flowchart which shows the processing content of the feature extraction under the setting mode which concerns on the embodiment. 同実施の形態に係る設定モード下での特徴抽出の処理内容を示すフローチャート。The flowchart which shows the processing content of the feature extraction under the setting mode which concerns on the embodiment. 同実施の形態に係る特徴抽出の設定画面を例示する図。The figure which illustrates the setting screen of the feature extraction which concerns on the embodiment. 同実施の形態に係る特徴抽出の設定画面を例示する図。The figure which illustrates the setting screen of the feature extraction which concerns on the embodiment. 同実施の形態に係る特徴抽出の設定画面を例示する図。The figure which illustrates the setting screen of the feature extraction which concerns on the embodiment. 同実施の形態に係る集計、画像検索機能をサーバ装置が有する場合の機能構成について例示するブロック図。The block diagram which illustrates about a function structure in case a server apparatus has the total and image search function which concern on the embodiment. 同実施の形態に係る集計、画像検索を行なう際のデジタルカメラ、パーソナルコンピュータ及びサーバ装置間での処理内容を示すフローチャート。7 is a flowchart showing processing contents among a digital camera, a personal computer, and a server device when performing aggregation and image search according to the embodiment. 同実施の形態に係る集計、画像検索を行なう際のデジタルカメラ、パーソナルコンピュータ及びサーバ装置間での処理内容を示すフローチャート。7 is a flowchart showing processing contents among a digital camera, a personal computer, and a server device when performing aggregation and image search according to the embodiment. 同実施の形態に係る集計、画像検索機能をデジタルカメラが有する場合の機能構成について例示するブロック図。The block diagram which illustrates about a function structure in case a digital camera has the total and image search function which concern on the embodiment. 同実施の形態に係る画像データから特徴量を抽出する特徴抽出処理と抽出した特徴データの記録処理の流れについて説明する図。The figure explaining the flow of the feature extraction process which extracts the feature-value from the image data which concerns on the embodiment, and the recording process of the extracted feature data. 同実施の形態に係る図17で得られる撮影情報と特徴記述コードとの内容を例示する図。The figure which illustrates the content of the imaging | photography information obtained by FIG. 17 and the characteristic description code based on the embodiment. 同実施の形態に係る画像から抽出された特徴データの記述例を示す図。The figure which shows the example of description of the feature data extracted from the image which concerns on the embodiment. 同実施の形態に係る画像から抽出された特徴データの記述例を示す図。The figure which shows the example of description of the feature data extracted from the image which concerns on the embodiment. 同実施の形態に係る抽出された特徴データの記述例を示す図。The figure which shows the example of description of the extracted feature data based on the embodiment. 同実施の形態に係る抽出された特徴データの記述例を示す図。The figure which shows the example of description of the extracted feature data based on the embodiment. 同実施の形態に係る記録媒体に記録された画像データファイルの階層構造を例示する図。The figure which illustrates the hierarchical structure of the image data file recorded on the recording medium based on the embodiment. 同実施の形態に係る圧縮データファイルの構造例を示す図。The figure which shows the structural example of the compressed data file which concerns on the embodiment. 同実施の形態に係る図5の特徴量抽出のサブルーチンの処理内容を示すフローチャート。The flowchart which shows the processing content of the subroutine of the feature-value extraction of FIG. 5 which concerns on the embodiment. 同実施の形態に係る図25の特徴抽出処理のサブルーチンの具体的な処理手順を列挙してその処理内容を示すフローチャート。The flowchart which enumerates the specific process sequence of the subroutine of the characteristic extraction process of FIG. 25 based on the embodiment, and shows the processing content. 同実施の形態に係る図26の輪郭抽出処理のサブルーチンの処理内容を示すフローチャート。The flowchart which shows the processing content of the subroutine of the contour extraction process of FIG. 26 which concerns on the embodiment. 同実施の形態に係る輪郭抽出とその抽出した輪郭による認識処理の内容を例示する図。The figure which illustrates the content of the recognition process by the outline extraction which concerns on the same embodiment, and the extracted outline. 同実施の形態に係る輪郭抽出とその抽出した輪郭による認識処理の内容を例示する図。The figure which illustrates the content of the recognition process by the outline extraction which concerns on the same embodiment, and the extracted outline. 同実施の形態に係る図26の代表色抽出処理のサブルーチンの処理内容を示すフローチャート。The flowchart which shows the processing content of the subroutine of the representative color extraction process of FIG. 26 which concerns on the same embodiment. 同実施の形態に係る図26の色の分布の抽出処理のサブルーチンの処理内容を示すフローチャート。The flowchart which shows the processing content of the subroutine of the color distribution extraction process of FIG. 26 which concerns on the embodiment. 同実施の形態に係る図26の動きの抽出処理のサブルーチンの処理内容を示すフローチャート。The flowchart which shows the processing content of the subroutine of the movement extraction process of FIG. 26 which concerns on the same embodiment. 同実施の形態に係る図26の輝度ヒストグラムによるテクスチャ解析のサブルーチンの処理内容を示すフローチャート。The flowchart which shows the processing content of the subroutine of the texture analysis by the brightness | luminance histogram of FIG. 26 which concerns on the embodiment. 同実施の形態に係るシーン別撮影モード毎の特徴量とテンプレート画像とを例示する図。The figure which illustrates the feature-value and template image for every imaging | photography mode according to the embodiment concerning the same embodiment. 同実施の形態に係るシーン別撮影モード毎の表示画面と撮影制御項目の内容を例示する図。The figure which illustrates the content of the display screen and imaging | photography control item for every imaging | photography mode according to the embodiment concerning the same embodiment. 同実施の形態に係るシーン別撮影モード毎の表示画面と撮影制御項目の内容を例示する図。The figure which illustrates the content of the display screen and imaging | photography control item for every imaging | photography mode according to the embodiment concerning the same embodiment.

符号の説明Explanation of symbols

10,10′…デジタルカメラ、11…撮影光学系受光窓、12…ストロボ発光部、13…グリップ部、14…電源スイッチ、15…シャッタスイッチ、16…ミラー、17…撮影レンズ群、18…CCD、19…モード切替スイッチ、20…ズームスイッチ、21…カーソルキー、22…エンターキー、23…ディスプレイ切替キー、24…メニューキー、25…表示部、26…収納蓋、27…外部入出力端子、31…撮影レンズ部、32…マイクロホン、33…表示部、34…スピーカ、35…ズームスイッチ、36…撮影スイッチ、37…カーソルスイッチ、38…再生スイッチ、39…電源/モード切替スイッチ、40,41…外部入出力端子、42…開閉蓋、43…ハードディスクユニット、44…メモリカード、51…操作入力部、52…撮影・記録制御部、53…撮影条件設定部、54…特徴抽出・記述設定部、55…撮影部、56…信号処理部、57…画像データメモリ、58…特徴抽出部、59…画像・動画像圧縮/符号化部、60…多重化部、61…特徴データ符号化部、62…比較回路、63…更新記録制御部、64…メモリ制御部、65…画像データメモリ、66…外部入出力部、67…統計記憶部、68…再生制御部、69…、70…画像・動画像伸張/復号化部、71…特徴データ複合化部、72…表示制御部、73…表示部、80…レンズドライバ、81…映像信号処理部、82…画像メモリ、83…制御回路、84…マイク、85…アンプ、86…A/D変換回路、87…音声メモリ、88…圧縮符号化・伸長復号化、89…記録媒体、90…特徴抽出/認識処理部、91…シーン・撮影条件の統計データメモリ、92…プログラムメモリ、93…データメモリ、94…撮影制御部、95…表示制御部、96…入力回路、97…外部入出力インタフェース、98…ハードディスクインタフェース(HDD・IF)、99…D/A変換回路、100…測距センサ、101…測光/測距部、102…アンプ、103…スピーカ、104…操作入力部、110…パーソナルコンピュータ(PC)、111…インターネット、112…サーバ装置、113…画像データベース(DB)、P10…ファームウェア、P11…カメラ制御プログラム、P12…PC転送プログラム、P21…PC転送ソフト、P22…検索集計ソフト、C23…記述言語デコーダ、C24…画像データデコーダ、D25…統計データ、D26…メタデータ、D27…画像データ、P110…OS、P111…WWWブラウザ、P112…カメラ転送ソフト、P201〜P203…CGIプログラム、D204…文書データベース、P205…サーバソフト、P206…認証ソフト、D207…会員登録データベース、P208…画像登録ソフト、C209…記述言語エンコーダ、D210…画像データベース、D211…特徴記述データベース、P212…検索ソフト、C213…記述言語デコーダ、P214…集計ソフト、D215…配信データベース、P231…サーバソフト、D232…特徴記述データベース、D233…画像データベース、D234…インデックスデータ。 DESCRIPTION OF SYMBOLS 10,10 '... Digital camera, 11 ... Shooting optical system light receiving window, 12 ... Strobe light emitting part, 13 ... Grip part, 14 ... Power switch, 15 ... Shutter switch, 16 ... Mirror, 17 ... Shooting lens group, 18 ... CCD , 19 ... Mode switch, 20 ... Zoom switch, 21 ... Cursor key, 22 ... Enter key, 23 ... Display switch key, 24 ... Menu key, 25 ... Display section, 26 ... Storage lid, 27 ... External input / output terminal, DESCRIPTION OF SYMBOLS 31 ... Shooting lens part, 32 ... Microphone, 33 ... Display part, 34 ... Speaker, 35 ... Zoom switch, 36 ... Shooting switch, 37 ... Cursor switch, 38 ... Playback switch, 39 ... Power supply / mode switch, 40, 41 ... External input / output terminal, 42 ... Open / close lid, 43 ... Hard disk unit, 44 ... Memory card, 51 ... Operation input 52 ... Shooting / recording control unit, 53 ... Shooting condition setting unit, 54 ... Feature extraction / description setting unit, 55 ... Shooting unit, 56 ... Signal processing unit, 57 ... Image data memory, 58 ... Feature extraction unit, 59 ... Image / moving image compression / encoding unit, 60 ... multiplexing unit, 61 ... feature data encoding unit, 62 ... comparison circuit, 63 ... update recording control unit, 64 ... memory control unit, 65 ... image data memory, 66 ... External input / output unit, 67 ... statistic storage unit, 68 ... reproduction control unit, 69 ..., 70 ... image / moving image expansion / decoding unit, 71 ... feature data combination unit, 72 ... display control unit, 73 ... display unit , 80 ... Lens driver, 81 ... Video signal processing unit, 82 ... Image memory, 83 ... Control circuit, 84 ... Microphone, 85 ... Amplifier, 86 ... A / D conversion circuit, 87 ... Audio memory, 88 ... Compression encoding / Decompression decoding, 89 ... recording medium, 90 ... special Extraction / recognition processing unit, 91 ... Statistical data memory of scene / shooting conditions, 92 ... Program memory, 93 ... Data memory, 94 ... Shooting control unit, 95 ... Display control unit, 96 ... Input circuit, 97 ... External input / output interface 98 ... Hard disk interface (HDD / IF), 99 ... D / A conversion circuit, 100 ... Distance measuring sensor, 101 ... Photometry / ranging unit, 102 ... Amplifier, 103 ... Speaker, 104 ... Operation input unit, 110 ... Personal Computer (PC), 111 ... Internet, 112 ... Server device, 113 ... Image database (DB), P10 ... Firmware, P11 ... Camera control program, P12 ... PC transfer program, P21 ... PC transfer software, P22 ... Search and aggregation software, C23: Description language decoder, C24: Image data decoder, D25 ... Statistical data, D26 ... Metadata, D27 ... Image data, P110 ... OS, P111 ... WWW browser, P112 ... Camera transfer software, P201-P203 ... CGI program, D204 ... Document database, P205 ... Server software, P206 ... Authentication software , D207 ... Member registration database, P208 ... Image registration software, C209 ... Description language encoder, D210 ... Image database, D211 ... Feature description database, P212 ... Search software, C213 ... Description language decoder, P214 ... Aggregation software, D215 ... Distribution database P231: server software, D232: feature description database, D233: image database, D234: index data.

Claims (10)

撮影条件を設定する設定手段と、
この設定手段で設定した撮影条件に従って撮影を実行する撮影手段と、
この撮影手段での撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出手段と、
上記設定手段で設定した撮影条件と上記特徴抽出手段で得た特徴情報とを対応付けて撮影履歴情報として記憶する記憶手段と、
この記憶手段に記憶している複数の撮影履歴情報を集計し、その集計結果を利用してあらたに撮影を行なう際の撮影条件を決定して上記設定手段により設定させるとともに、上記撮影手段による撮影を行なわせる撮影制御手段と
を具備したことを特徴とする撮像装置。
Setting means for setting shooting conditions;
Photographing means for performing photographing in accordance with photographing conditions set by the setting means;
Feature extraction means for extracting feature information indicating the characteristics of the image based on a predetermined viewpoint from image information obtained by photographing with the photographing means;
Storage means for storing the shooting conditions set by the setting means and the feature information obtained by the feature extraction means in association with each other as shooting history information;
A plurality of shooting history information stored in the storage means is totaled, and shooting conditions for newly taking a picture are determined by using the totaled result and set by the setting means, and shooting by the shooting means is performed. An imaging apparatus comprising: an imaging control means for performing
上記記憶手段に記憶している複数の撮影履歴情報を集計することにより、各種撮影条件と各種特徴情報との相関関係を抽出し、相関情報として記憶する相関抽出手段をさらに具備し、
上記撮影制御手段は、あらたに撮影を行なう撮影対象に対応する特徴情報を取得し、取得した特徴情報との相関関係を有する撮影条件を上記記憶した相関情報に基づいて特定し、特定した撮影条件を上記設定手段により設定させるとともに、上記撮影手段による撮影を行なわせる
ことを特徴とする請求項1記載の撮像装置。
A total of a plurality of shooting history information stored in the storage means is added to extract a correlation between various shooting conditions and various feature information, and further includes a correlation extraction means for storing as correlation information,
The shooting control means acquires feature information corresponding to a shooting target to be newly shot, specifies a shooting condition having a correlation with the acquired feature information based on the stored correlation information, and specifies the specified shooting condition 2. The image pickup apparatus according to claim 1, wherein the image pickup device is set by the setting means and the image pickup means is used for shooting.
撮影条件を設定する設定手段と、
この設定手段で設定した撮影条件に従って撮影を実行する撮影手段と、
この撮影手段での撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出手段と、
上記撮影手段で得た画像情報に対応した上記撮影条件と、該画像情報に対応して上記特徴抽出手段で得た特徴情報とを対応付けた撮影履歴情報を集計用の外部装置へ送信する送信手段と、
上記集計用の外部装置によって複数の撮像装置からの撮影履歴情報が集計されることにより得られた各種撮影条件と各種特徴情報との相関関係を示す相関情報を、前記集計用の外部装置より受信する受信手段と、
あらたに撮影を行なう撮影対象に対応する特徴情報を取得し、この取得された特徴情報との相関関係の高い撮影条件を前記受信した相関情報に基づいて特定し、この特定した撮影条件を前記設定手段により設定させるとともに、上記撮影手段による撮影を行なう撮影制御手段と
をさらに具備したことを特徴とする撮像装置。
Setting means for setting shooting conditions;
Photographing means for performing photographing in accordance with photographing conditions set by the setting means;
Feature extraction means for extracting feature information indicating the characteristics of the image based on a predetermined viewpoint from image information obtained by photographing with the photographing means;
Transmission for transmitting photographing history information in which the photographing conditions corresponding to the image information obtained by the photographing means and the feature information obtained by the feature extracting means corresponding to the image information are associated to the external device for aggregation Means,
Correlation information indicating a correlation between various shooting conditions and various feature information obtained by totaling shooting history information from a plurality of imaging devices by the external device for aggregation is received from the external device for aggregation. Receiving means for
The feature information corresponding to the subject to be newly photographed is acquired, the shooting condition having a high correlation with the acquired feature information is specified based on the received correlation information, and the specified shooting condition is set in the setting An image pickup apparatus, further comprising: a shooting control unit configured to set by the shooting unit and perform shooting by the shooting unit.
装置外部から与えられる所定の観点を示す指定情報を入力する入力手段をさらに具備し、
上記特徴抽出手段は、上記入力手段で入力した指定情報に基づいて当該画像の特徴を示す特徴情報を抽出する
ことを特徴とする請求項3記載の撮像装置。
It further comprises input means for inputting designation information indicating a predetermined viewpoint given from the outside of the apparatus,
4. The imaging apparatus according to claim 3, wherein the feature extraction unit extracts feature information indicating the feature of the image based on the designation information input by the input unit.
上記入力手段は、上記指定情報に加えて撮影条件の情報も入力し、
上記設定手段は、上記入力手段より入力した情報に基づいて撮影条件を設定することを特徴とする請求項4記載の撮像装置。
The input means also inputs shooting condition information in addition to the designation information,
The imaging apparatus according to claim 4 , wherein the setting unit sets an imaging condition based on information input from the input unit.
上記送信手段は、当該撮像装置を分類する分類情報を合わせて出力し、
上記入力手段は、装置外部から与えられる、上記分類情報に対応した指定情報または撮影条件の情報を入力することを特徴とする請求項4または5記載の撮像装置。
The transmission means outputs together the classification information for classifying the imaging device,
6. The image pickup apparatus according to claim 4 , wherein the input unit inputs designation information or photographing condition information corresponding to the classification information given from the outside of the apparatus.
撮影条件を設定する設定工程と、
この設定工程で設定した撮影条件に従って撮影を実行する撮影工程と、
この撮影工程での撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出工程と、
上記設定工程で設定した撮影条件と上記特徴抽出工程で得た特徴情報とを対応付けて撮影履歴情報として記憶する記憶工程と、
この記憶工程で記憶している複数の撮影履歴情報を集計し、その集計結果を利用してあらたに撮影を行なう際の撮影条件を決定して上記設定工程により設定させるとともに、上記撮影工程による撮影を行なわせる撮影制御工程と
を有したことを特徴とする撮像方法。
A setting process for setting shooting conditions;
A shooting process for performing shooting according to the shooting conditions set in this setting process;
A feature extraction step of extracting feature information indicating features of the image based on a predetermined viewpoint from the image information obtained by photographing in the photographing step;
A storage step of associating and storing the shooting conditions set in the setting step and the feature information obtained in the feature extraction step as shooting history information;
A plurality of shooting history information stored in this storage step is totaled, and the shooting conditions for newly taking a picture are determined by using the totaled result and set by the setting step, and shooting by the shooting step is performed. An imaging method comprising: an imaging control step for performing
撮影条件を設定する設定工程と、
この設定工程で設定した撮影条件に従って撮影を実行する撮影工程と、
この撮影工程での撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出工程と、
上記撮影工程で得た画像情報に対応した上記撮影条件と、該画像情報に対応して上記特徴抽出工程で得た特徴情報とを対応付けた撮影履歴情報を集計用の外部装置へ送信する送信工程と、
上記集計用の外部装置によって複数の撮像装置からの撮影履歴情報が集計されることにより得られた各種撮影条件と各種特徴情報との相関関係を示す相関情報を、前記集計用の外部装置より受信する受信工程と、
あらたに撮影を行なう撮影対象に対応する特徴情報を取得し、この取得された特徴情報との相関関係の高い撮影条件を前記受信した相関情報に基づいて特定し、この特定した撮影条件を前記設定工程により設定させるとともに、上記撮影工程による撮影を行なう撮影制御工程と
を有したことを特徴とする撮像方法。
A setting process for setting shooting conditions;
A shooting process for performing shooting according to the shooting conditions set in this setting process;
A feature extraction step of extracting feature information indicating features of the image based on a predetermined viewpoint from the image information obtained by photographing in the photographing step;
Transmission for transmitting photographing history information in which the photographing conditions corresponding to the image information obtained in the photographing step and the feature information obtained in the feature extraction step corresponding to the image information are associated to the external device for aggregation Process,
Correlation information indicating a correlation between various shooting conditions and various feature information obtained by totaling shooting history information from a plurality of imaging devices by the external device for aggregation is received from the external device for aggregation. A receiving process,
The feature information corresponding to the subject to be newly photographed is acquired, the shooting condition having a high correlation with the acquired feature information is specified based on the received correlation information, and the specified shooting condition is set in the setting An imaging method comprising: an imaging control step of performing imaging in accordance with the imaging step, and setting in accordance with a process.
撮像装置に内蔵されるコンピュータが実行するプログラムであって、
撮影条件を設定する設定ステップと、
この設定ステップで設定した撮影条件に従って撮影を実行する撮影ステップと、
この撮影ステップでの撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出ステップと、
上記設定ステップで設定した撮影条件と上記特徴抽出ステップで得た特徴情報とを対応付けて撮影履歴情報として記憶する記憶ステップと、
この記憶ステップで記憶している複数の撮影履歴情報を集計し、その集計結果を利用してあらたに撮影を行なう際の撮影条件を決定して上記設定ステップにより設定させるとともに、上記撮影ステップによる撮影を行なわせる撮影制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
A program executed by a computer incorporated in an imaging apparatus,
A setting step for setting shooting conditions;
A shooting step for performing shooting according to the shooting conditions set in this setting step;
A feature extraction step for extracting feature information indicating the feature of the image based on a predetermined viewpoint from the image information obtained by photographing in the photographing step;
A storage step of storing the shooting conditions set in the setting step and the feature information obtained in the feature extraction step in association with each other as shooting history information;
A plurality of shooting history information stored in the storage step is totaled, and the shooting conditions for newly shooting are determined by using the totaled result and set in the setting step, and shooting in the shooting step is performed. A program for causing a computer to execute a photographing control step for performing
撮像装置に内蔵されるコンピュータが実行するプログラムであって、
撮影条件を設定する設定ステップと、
この設定ステップで設定した撮影条件に従って撮影を実行する撮影ステップと、
この撮影ステップでの撮影により得た画像情報中から所定の観点に基づいて当該画像の特徴を示す特徴情報を抽出する特徴抽出ステップと、
上記撮影ステップで得た画像情報に対応した上記撮影条件と、該画像情報に対応して上記特徴抽出ステップで得た特徴情報とを対応付けた撮影履歴情報を集計用の外部装置へ送信する送信ステップと、
上記集計用の外部装置によって複数の撮像装置からの撮影履歴情報が集計されることにより得られた各種撮影条件と各種特徴情報との相関関係を示す相関情報を、前記集計用の外部装置より受信する受信ステップと、
あらたに撮影を行なう撮影対象に対応する特徴情報を取得し、この取得された特徴情報との相関関係の高い撮影条件を前記受信した相関情報に基づいて特定し、この特定した撮影条件を前記設定ステップにより設定させるとともに、上記撮影手段による撮影を行なう撮影制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
A program executed by a computer incorporated in an imaging apparatus,
A setting step for setting shooting conditions;
A shooting step for performing shooting according to the shooting conditions set in this setting step;
A feature extraction step for extracting feature information indicating the feature of the image based on a predetermined viewpoint from the image information obtained by photographing in the photographing step;
Transmission for transmitting photographing history information in which the photographing conditions corresponding to the image information obtained in the photographing step and the feature information obtained in the feature extraction step corresponding to the image information are associated to the external device for aggregation Steps,
Correlation information indicating a correlation between various shooting conditions and various feature information obtained by totaling shooting history information from a plurality of imaging devices by the external device for aggregation is received from the external device for aggregation. Receiving step to
The feature information corresponding to the subject to be newly photographed is acquired, the shooting condition having a high correlation with the acquired feature information is specified based on the received correlation information, and the specified shooting condition is set in the setting A program that causes a computer to execute a shooting control step of setting by steps and performing shooting by the shooting means .
JP2006095743A 2006-03-30 2006-03-30 Imaging apparatus, imaging method, and program Expired - Fee Related JP4867428B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006095743A JP4867428B2 (en) 2006-03-30 2006-03-30 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006095743A JP4867428B2 (en) 2006-03-30 2006-03-30 Imaging apparatus, imaging method, and program

Publications (2)

Publication Number Publication Date
JP2007274195A JP2007274195A (en) 2007-10-18
JP4867428B2 true JP4867428B2 (en) 2012-02-01

Family

ID=38676559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006095743A Expired - Fee Related JP4867428B2 (en) 2006-03-30 2006-03-30 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP4867428B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101441587B1 (en) * 2008-01-30 2014-09-23 삼성전자 주식회사 An apparatus for learning photographing profiles of digital imaging devices for personal lifelong recording and learning methods thereof
JP5092958B2 (en) * 2008-07-17 2012-12-05 カシオ計算機株式会社 Image processing apparatus and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000287121A (en) * 1999-03-30 2000-10-13 Fuji Film Microdevices Co Ltd Image signal processor
JP2001275037A (en) * 2000-03-28 2001-10-05 Canon Inc Image pickup device, image pickup method, and storage medium
JP2003244522A (en) * 2002-02-14 2003-08-29 Canon Inc Programmed photographing method and imaging device
JP4400315B2 (en) * 2004-06-02 2010-01-20 セイコーエプソン株式会社 Camera with learning function
JP2006180204A (en) * 2004-12-22 2006-07-06 Canon Inc Network connection type consumer equipment, server, and consumer system

Also Published As

Publication number Publication date
JP2007274195A (en) 2007-10-18

Similar Documents

Publication Publication Date Title
JP2008017224A (en) Imaging apparatus, output control method of imaging apparatus, and program
JP5857122B2 (en) Video summary including features of interest
JP5877895B2 (en) Video summary including a given person
US8064710B2 (en) Image processing apparatus, method of controlling thereof, and program
US20080195924A1 (en) Method and apparatus for encoding multimedia contents and method and system for applying encoded multimedia contents
JP4505760B2 (en) Information processing apparatus and method, program, and recording medium
EP1291777A1 (en) Content searching/distributing device and content searching/distributing method
JP2007096379A (en) Imaging apparatus, image recording and retrieving apparatus and program
US20060078315A1 (en) Image display device, image display program, and computer-readable recording media storing image display program
JP2007088814A (en) Imaging apparatus, image recorder and imaging control program
KR101345284B1 (en) Method and apparatus for encoding/playing multimedia contents
JP2008084213A (en) Image processor, imaging apparatus, image processing method, and program
KR20070011094A (en) Method and apparatus for encoding multimedia contents and method and system for applying encoded multimedia contents
GB2382254A (en) Image capture device for creating image data with metadata
KR20070011092A (en) Method and apparatus for encoding multimedia contents and method and system for applying encoded multimedia contents
US20090003707A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and program
US10070175B2 (en) Method and system for synchronizing usage information between device and server
US20150036020A1 (en) Method for sharing original photos along with final processed image
JP2002176613A (en) Moving image editing unit, moving image editing method and recording medium
JP4867428B2 (en) Imaging apparatus, imaging method, and program
US7403655B2 (en) Moving picture system and moving picture extraction method
JP6417752B2 (en) Network camera system, information processing method, program
US11825186B2 (en) Program, information processing device, and information processing system
WO2007043746A1 (en) Method and apparatus for encoding multimedia contents and method and system for applying encoded multimedia contents
JP2005203865A (en) Image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111031

R150 Certificate of patent or registration of utility model

Ref document number: 4867428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees