JP2007243551A - Image processing unit and imaging apparatus - Google Patents

Image processing unit and imaging apparatus Download PDF

Info

Publication number
JP2007243551A
JP2007243551A JP2006062563A JP2006062563A JP2007243551A JP 2007243551 A JP2007243551 A JP 2007243551A JP 2006062563 A JP2006062563 A JP 2006062563A JP 2006062563 A JP2006062563 A JP 2006062563A JP 2007243551 A JP2007243551 A JP 2007243551A
Authority
JP
Japan
Prior art keywords
image
image processing
information
shooting
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006062563A
Other languages
Japanese (ja)
Inventor
Atsushi Hoshii
淳 星井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006062563A priority Critical patent/JP2007243551A/en
Publication of JP2007243551A publication Critical patent/JP2007243551A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing unit for enabling a user who has little in expertise of image processings to process an image photographed in various environments appropriately and easily according to the various environments, and to provide an imaging apparatus that becomes especially useful, in combination with the image processing unit. <P>SOLUTION: The image processing unit (computer 10) performs prescribed image processings on an image photographed by a digital camera 20. The image processing unit comprises an information acquisition means (realized by an information acquisition section 11, an arithmetic unit 13, or the like here) for acquiring various kinds of photographic environment information, including a photographed image, position information in photography, photographic direction, and photographing time; an image processing table T in which prescribed image processing is prescribed, separate from the photographic environment information; and an image processing means (realized by the arithmetic unit 13, appropriate software, or the like here) for referring to the table T to execute the prescribed image processings, corresponding to the content of the photography environment information related to the photographed image to the photographed image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、例えばデジタルカメラ等の撮像装置により撮影された画像に対して所定の画像処理を行う画像処理装置、および該画像処理装置と組み合わせて用いて特に有益な撮像装置に関する。   The present invention relates to an image processing apparatus that performs predetermined image processing on an image captured by an imaging apparatus such as a digital camera, and an imaging apparatus that is particularly useful when used in combination with the image processing apparatus.

近年、画像処理の専門知識に乏しい人であっても、理想的な画像補正を容易に実現することのできる画像処理装置が求められている。そこで従来、ユーザの好みに応じて自動的に画像を補正してくれる画像補正ソフトウェア、例えばレタッチアプリケーションの搭載された画像処理装置なども、実用化されるに至っている(例えば特許文献1参照)。   In recent years, there has been a demand for an image processing apparatus capable of easily realizing ideal image correction even for a person who lacks expertise in image processing. Therefore, conventionally, image correction software that automatically corrects an image according to the user's preference, for example, an image processing apparatus equipped with a retouch application has been put into practical use (see, for example, Patent Document 1).

例えば、夕日を背景(バック)にして人物を撮影するときなどには、背景と比較して被写体が適正値よりも暗い画像、いわゆる逆光の画像になり易い。したがって、このような場合には、適当な補正を施して、画像の最適化を図ることが望ましい。そこで従来、適宜の顔認識手段を用いて被写体(顔)を検出することにより、該検出された被写体が周辺の画像と比較して適正値よりも暗いときには、当該画像は逆光の画像であると判定して、予め用意された画像処理(画像補正)を実行するような方法(ソフトウェア)などが用いられている。
特開2002−344989号公報
For example, when a person is photographed with the sunset in the background (back), the subject is likely to be darker than the appropriate value, that is, a so-called backlight image compared to the background. Therefore, in such a case, it is desirable to optimize the image by performing appropriate correction. Therefore, conventionally, when an object (face) is detected using an appropriate face recognition means, when the detected object is darker than an appropriate value compared to the surrounding image, the image is a backlight image. A method (software) or the like that performs determination and executes image processing (image correction) prepared in advance is used.
JP 2002-344989 A

しかしながら、こうした顔認識手段を用いた画像処理方法では、被写体(顔)の明度が極端に低かったりすると、画像中に被写体(顔)があっても、その顔を認識することができない等の認識ミスが一定の頻度で起こり、本来補正すべき逆光の画像であるにもかかわらず、適切な補正が行われない、などといったことも懸念されるようになっている。そして通常、こうした顔認識手段は、画像上の肌色領域の位置を手掛かりにして顔を検出するものが多いため、特に赤味がかった照明環境(例えば夕焼けなど)で人物を撮影したときなどには、赤色成分を多く含む上記肌色領域を検出することが難しくなり、上記認識ミスはさらに起こり易くなる。   However, in such an image processing method using the face recognition means, if the brightness of the subject (face) is extremely low, even if the subject (face) is present in the image, the face cannot be recognized. There is also a concern that mistakes occur at a certain frequency and appropriate correction is not performed even though the image is a backlight image that should be corrected. Usually, many of these face recognition means detect faces by using the position of the skin color area on the image as a clue. Therefore, especially when a person is photographed in a reddish lighting environment (for example, sunset). , It becomes difficult to detect the skin color region containing a large amount of red component, and the recognition error is more likely to occur.

この発明は、こうした実情に鑑みてなされたものであり、画像処理の専門知識に乏しいユーザであれ、様々な環境で撮影された画像に対して、それら環境に応じて適切な画像処理を容易に行うことのできる画像処理装置、および該画像処理装置と組み合わせて用いて特に有益な撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and even a user who lacks expertise in image processing can easily perform appropriate image processing on images taken in various environments according to those environments. It is an object of the present invention to provide an image processing apparatus that can be used, and an imaging apparatus that is particularly useful when used in combination with the image processing apparatus.

こうした目的を達成するため、請求項1に記載の発明では、撮像装置により撮影された画像に対して所定の画像処理を行う画像処理装置として、前記撮像装置により撮影された画像、および該画像が撮影された時の位置情報、および該画像が撮影された時の撮影方向に係る情報、および該画像が撮影された時の撮影時刻、を取得するための情報取得手段と、前記情報取得手段により取得される各情報の内容の別に所定の処理が、前記画像に対する画像処理として規定されたテーブルと、前記テーブルを参照して、前記情報取得手段により取得される各情報の内容に対応する所定の画像処理(例えば画像の加工・補正など)を、前記画像に対して実行する画像処理手段と、を備える構成とする。   In order to achieve such an object, according to the first aspect of the present invention, as an image processing apparatus that performs predetermined image processing on an image captured by an imaging apparatus, an image captured by the imaging apparatus, and the image Information acquisition means for acquiring position information at the time of shooting, information on the shooting direction when the image was shot, and shooting time when the image was shot; and the information acquisition means A predetermined process according to the content of each piece of information acquired includes a table defined as image processing for the image, and a predetermined processing corresponding to the content of each piece of information acquired by the information acquisition unit with reference to the table. And image processing means for executing image processing (for example, image processing / correction) on the image.

このように、撮影時の位置情報(撮影場所)、撮影方向、撮影時刻、などを取得することで、撮影時の環境(撮影環境)をより正確に把握することが可能になり、ひいては、様々な環境で撮影された画像に対して、それら環境に応じて適切な画像処理を行うことができるようになる。しかも、これら各情報の内容に応じて所定の処理(例えば環境ごとに最適な画像処理)を上記テーブルにて予め関連付けしておくことにより、画像処理の専門知識に乏しいユーザであれ、撮影環境に応じて最適な画像処理を容易に行うことができるようになる。   As described above, by acquiring position information (shooting location), shooting direction, shooting time, etc. at the time of shooting, it becomes possible to more accurately grasp the environment (shooting environment) at the time of shooting. Appropriate image processing can be performed on an image shot in a different environment according to the environment. In addition, by associating predetermined processing (for example, optimal image processing for each environment) in advance in the above table according to the contents of each information, even a user who lacks expertise in image processing can be in a shooting environment. Accordingly, optimal image processing can be easily performed.

また、請求項2に記載の発明では、前記位置情報についてはこれを、緯度および経度および高度を含むものとし、前記撮影方向に係る情報についてはこれを、撮影時における前記撮像装置の上下の向きの傾き度合、および撮影時に前記撮像装置の向いていた方角を特定するための情報を含むものとすることが有効である。   In the second aspect of the present invention, the position information includes latitude, longitude, and altitude, and the information related to the shooting direction indicates the vertical orientation of the imaging device at the time of shooting. It is effective to include information for specifying the degree of inclination and the direction in which the imaging apparatus is facing at the time of shooting.

このような構成によれば、3次元的に撮影位置(高地/低地も含め、地球上のどこで撮影されたか)を特定することが可能になるとともに、また撮影方向についても、空に向いているか、あるいは地面に向いているか、なども含め、撮像レンズをどの方向に向けて撮影されたかを、正確に把握することができるようになる。   According to such a configuration, it is possible to specify the shooting position (where the image was taken on the earth, including high and low altitudes) in a three-dimensional manner, and the shooting direction is also suitable for the sky. It is possible to accurately grasp the direction in which the imaging lens was photographed, including whether it is facing the ground or the like.

また、これら請求項1または2に記載の画像処理装置に関しては、請求項3に記載の発明によるように、前記情報取得手段を、前記各情報に加えてさらに、温度および湿度および気圧も取得するものとし、前記テーブルにおいて処理を規定するために用いられる情報に、これら温度および湿度および気圧も含めるようにすることが有効である。こうすることで、撮影環境の特定(例えば屋内/屋外の判定や、季節の特定、標高など)も、高い精度で容易に行うことができるようになる。   In addition, regarding the image processing apparatus according to the first or second aspect, as in the invention according to the third aspect, in addition to the information, the information acquisition unit further acquires temperature, humidity, and atmospheric pressure. It is effective to include these temperature, humidity, and atmospheric pressure in the information used for defining the processing in the table. By doing so, it is possible to easily specify the shooting environment (for example, indoor / outdoor determination, season specification, altitude, etc.) with high accuracy.

ところで、一般に、画像補正ソフトウェア(例えばレタッチアプリケーション)では、一定の基準(撮影画像全般に広く適用される略共通の基準)が設けられており、対象の画像が、この基準を満たしているか否かに基づいて所定の画像補正を実行するか否かを決定する。そして、当該画像が、この基準を満たしていないときには、所定の画像補正を施して当該画像の最適化を図っている。   By the way, in general, image correction software (for example, a retouch application) has a certain standard (substantially common standard widely applied to all captured images), and whether or not the target image satisfies this standard. Based on the above, it is determined whether or not to execute a predetermined image correction. When the image does not satisfy this standard, a predetermined image correction is performed to optimize the image.

しかしながら、従来一般のソフトウェアにおいては、例えば前述した顔認識手段の認識ミスに代表されるように、撮影環境(例えば照明の種類)によっては、誤った補正が行われる、あるいは実行されるべき補正が行われない、といった懸念の残される実情にある。   However, in the conventional general software, for example, as represented by the recognition error of the face recognition unit described above, an incorrect correction is performed or a correction to be performed is performed depending on the shooting environment (for example, the type of illumination). It is in fact that concerns remain that it will not be done.

こうした実情に鑑みて、請求項4に記載の発明では、前記テーブルにおいては、前記情報取得手段により取得される各情報の内容が、前記画像の良否を判定するための一定の基準として加味されるとともに、前記所定の画像処理が、前記基準ごとに関連付けされており、前記画像処理手段は、該テーブルを参照して、前記画像が同テーブルに規定された前記基準を満たしているか否かに基づいて、当該画像の良否を判定し、前記基準を満たさないと判定されたときには、該基準に関連付けされた前記テーブル上の所定の画像処理を実行することにより、当該画像の補正を行う構成とする。こうした構成であれば、画像の良否判定(補正すべきか否かの判定)にも、前述した撮影時の位置情報(撮影場所)や、撮影方向、撮影時刻、などの各情報(撮影環境情報)が反映されるようになり、より高い精度で適切に画像の補正が行われるようになる。   In view of such circumstances, in the invention according to claim 4, in the table, the content of each information acquired by the information acquisition unit is taken into account as a constant reference for determining the quality of the image. In addition, the predetermined image processing is associated with each criterion, and the image processing means refers to the table based on whether the image satisfies the criterion defined in the table. When the quality of the image is determined and it is determined that the standard is not satisfied, the image is corrected by executing predetermined image processing on the table associated with the standard. . With such a configuration, the above-described position information (shooting location) at the time of shooting (shooting location), shooting direction, shooting time, and other information (shooting environment information) are also used for image quality determination (determination of whether or not to correct). Is reflected, and image correction is appropriately performed with higher accuracy.

具体的には、例えば請求項5に記載の発明によるように、前記画像の良否を判定するための基準として、前記情報取得手段により取得される各情報の内容に基づいて逆光であるか否か(画像の良否)を判別するための基準を備える構成とすることが有効である。このような構成であれば、例えば撮影時刻(季節や1日における時間帯)から太陽の位置などを把握し、撮影時の位置情報(撮影場所)および撮影方向に基づいて、撮影時に撮像レンズが太陽に向いているか否か、および撮影場所が屋内か屋外かを判定(推測)することにより、これを対象の画像の色情報と併せ加味して、前述した逆光であるか否かの判定についてもこれを、精度よく、より正確に行うことが可能になる。また、上記撮影時刻および位置情報および撮影方向から、季節や天候なども把握して、これらを併せ加味するようにすれば、逆光の判定精度をさらに高めることも可能になる。また、逆光の画像は、夕方の西日(夕焼け)の中で撮影されたものが多い(しかも、夕焼けの画像は顔認識手段による認識ミスが起こり易い)ため、上記撮影時刻(季節や1日における時間帯)等に基づいて、こうした画像(夕焼けの画像)であるか否かを判定するように構成することも有効である。   Specifically, for example, according to the invention described in claim 5, whether or not the image is backlit based on the content of each information acquired by the information acquisition means as a reference for determining the quality of the image. It is effective to have a configuration including a reference for determining (image quality). With such a configuration, for example, the position of the sun is ascertained from the shooting time (season or time of day), and the imaging lens is used during shooting based on the position information (shooting location) and shooting direction at the time of shooting. Regarding the above-mentioned determination of whether or not it is backlit by determining (estimating) whether it is facing the sun and whether the shooting location is indoors or outdoors, and taking this into consideration along with the color information of the target image This can be performed more accurately and accurately. In addition, if the season and weather are grasped from the photographing time, position information, and photographing direction, and these are taken into account, it is possible to further improve the backlight determination accuracy. Also, many backlight images were taken in the evening in the evening (and sunset) (and sunset images are prone to recognition errors by the face recognition means), so the above shooting time (season and day) It is also effective to determine whether or not it is such an image (an image of sunset) based on the time zone in FIG.

また、例えば請求項6に記載の発明によるように、前記画像の良否を判定するための基準として、前記情報取得手段により取得される各情報の内容に基づいて、前記画像の色温度およびコントラストおよびカラーバランスの少なくとも1つが適正であるか否か(画像の良否)を判別するための基準を備える構成とすることも有効である。このような構成であれば、例えば撮影時刻および位置情報(撮影場所)および撮影方向から、撮影場所が屋内か屋外かや、季節、天候などを把握することにより、これを対象の画像の色情報と併せ加味して、前記画像の色温度、コントラスト、カラーバランスなどが適正であるか否かの判定についてもこれを、精度よく、より正確に行うことが可能になる。すなわち、例えば撮影場所が屋外であり、天候が「曇り」や「雨」であれば、色温度が高く、カラーバランスが青に偏り、コントラストが低くなりがちであるから、これを補償するような補正を施すようにする。また、これらの要素(色温度・カラーバランス・コントラスト)は、季節(例えば冬/夏/春・秋)や時刻(例えば日中/夜)にも影響されるため、画像補正に際しては、季節や時刻も加味して、補正の種類(例えばフィルタの種類)や度合いを決定することが望ましい。   For example, according to the invention described in claim 6, as a reference for determining the quality of the image, based on the contents of each information acquired by the information acquisition means, the color temperature and contrast of the image, and It is also effective to have a configuration including a reference for determining whether or not at least one of the color balances is appropriate (image quality). With such a configuration, for example, from the shooting time and position information (shooting location) and the shooting direction, by grasping whether the shooting location is indoors or outdoors, the season, weather, etc., this is used as color information of the target image. In addition, it is possible to accurately and more accurately determine whether or not the color temperature, contrast, and color balance of the image are appropriate. That is, for example, if the shooting location is outdoors and the weather is “cloudy” or “rainy”, the color temperature is high, the color balance is biased to blue, and the contrast tends to be low. Make corrections. These factors (color temperature, color balance, and contrast) are also affected by the season (for example, winter / summer / spring / autumn) and the time (for example, day / night). It is desirable to determine the type of correction (for example, the type of filter) and the degree in consideration of the time.

また、上記請求項1〜6のいずれか一項に記載の画像処理装置に関しては、請求項7に記載の発明によるように、前記テーブルにおいては、前記情報取得手段により取得される各情報の内容が、所定のシーン(場面)ごとに分類されるとともに、前記所定の画像処理が、該分類されたシーンごとに関連付けされており、前記画像処理手段は、前記情報取得手段により取得される各情報の内容に基づいて、当該画像が前記シーンのいずれに該当するかを判別するとともに、該判別されたシーンに関連付けされた前記テーブル上の所定の画像処理を実行することにより、当該画像の補正を行う構成とすることが有効である。   Moreover, regarding the image processing apparatus according to any one of claims 1 to 6, according to the invention according to claim 7, in the table, contents of each information acquired by the information acquisition unit Are classified for each predetermined scene (scene), and the predetermined image processing is associated with each classified scene, and the image processing means is configured to acquire each piece of information acquired by the information acquisition means. Based on the content of the image, it is determined which of the scenes the image corresponds to, and the image is corrected by executing predetermined image processing on the table associated with the determined scene. It is effective to adopt a configuration to perform.

このように、前記テーブル上に予め幾つかのシーンを割り付けておき、これらシーンごとに最適な画像処理を関連付けすることにより、上記シーン判別を通じて、当該画像の補正が適切に且つ的確に行われるようになる。そして、このときのシーン判別に、前述した撮影時の位置情報(撮影場所)や、撮影方向、撮影時刻、などの各情報を用いることにより、多種多様なシーンを正確に判別することができるようになり、ひいては、これら各シーンについて、それぞれ高い精度で適切な画像補正を実行することができるようになる。   In this way, by assigning several scenes in advance on the table and associating the optimal image processing for each scene, the image can be corrected appropriately and accurately through the scene determination. become. In addition, for the scene discrimination at this time, various information such as the position information (shooting location) at the time of shooting, the shooting direction, the shooting time, and the like can be accurately determined. Thus, appropriate image correction can be executed with high accuracy for each of these scenes.

そして、前記テーブルに規定されたシーンについては、例えば請求項8に記載の発明によるように、少なくとも前記画像のタイプを、被写体のみ、風景のみ、被写体および風景、の3つのカテゴリのいずれに該当するかによって分類することが有効である。こうした構成であれば、画像補正をはじめとする画像処理の種類等を決定する上で特に重要になる条件、すなわち上記被写体(例えば人物)の有無も加味した上で、上記シーンごとに最適な画像処理を関連付けすることができるようになる。なお、上記被写体(画像の中心となるオブジェクト)は、人物に限らず、ビルや家などの建物であってもよい。   For the scenes defined in the table, for example, according to the invention described in claim 8, at least the type of the image corresponds to any of the three categories: subject only, landscape only, subject and landscape. It is effective to classify by. With such a configuration, an optimum image for each scene in consideration of conditions that are particularly important in determining the type of image processing including image correction, that is, the presence or absence of the subject (for example, a person) Processes can be associated. The subject (the object that is the center of the image) is not limited to a person, but may be a building such as a building or a house.

また、請求項9に記載の発明によるように、前記テーブルに規定されたシーンを、季節、および天候、および1日における時間帯(例えば朝/日中/夕方/夜)、および撮影場所(例えば屋内/山/海など)、の少なくとも1つによって分類されるものとしても、有効である。これらは、画像処理(画像補正)の種類や度合いを決める上で特に重要なパラメータとなるものであり、しかも、前記情報取得手段により取得される各情報の内容から容易に求めることが可能である。   According to the invention described in claim 9, the scene defined in the table includes the season, the weather, the time zone in one day (for example, morning / day / evening / night), and the shooting location (for example, Even if it is classified by at least one of indoor / mountain / sea, etc., it is effective. These are parameters that are particularly important in determining the type and degree of image processing (image correction), and can be easily obtained from the contents of each information acquired by the information acquisition means. .

また一方、請求項10に記載の発明では、撮像装置により撮影された画像に対して所定の画像処理を行う画像処理装置として、前記撮像装置により撮影された画像、および該画像が撮影された時の位置情報、および該画像が撮影された時の撮影方向に係る情報、および該画像が撮影された時の撮影時刻、および前記撮像装置の画角を特定するための情報、を取得するための情報取得手段と、前記位置情報を参照して撮影位置周辺の地図を取得する地図取得手段と、該地図取得手段により取得される地図、および前記情報取得手段により取得される各情報の内容、並びに前記撮像装置の画角に基づき、前記撮像装置により撮影された画像に映っているオブジェクトの全部、もしくは一部(例えば画像の端に映っているものだけ)の、所定のオブジェクトについて、該オブジェクトが、前記地図に登録されているオブジェクトのいずれに相当するものであるかを同定するオブジェクト同定手段と、該オブジェクト同定手段により同定されたオブジェクトの全部、もしくは一部の、所定のオブジェクトを指標として、前記撮像装置により撮影された画像に対してトリミングを実行するトリミング実行手段と、を備える構成とする。   On the other hand, in the invention according to claim 10, as an image processing device that performs predetermined image processing on an image captured by the imaging device, an image captured by the imaging device, and when the image is captured Position information, information related to the shooting direction when the image was shot, and shooting time when the image was shot, and information for specifying the angle of view of the imaging device. Information acquisition means; map acquisition means for acquiring a map around the shooting position with reference to the position information; a map acquired by the map acquisition means; contents of each information acquired by the information acquisition means; Based on the angle of view of the imaging device, all or a part of the object shown in the image taken by the imaging device (for example, only the one shown at the edge of the image) An object identification means for identifying which of the objects registered in the map corresponds to the object, and a predetermined number of all or a part of the objects identified by the object identification means. Trimming execution means for executing trimming on an image photographed by the imaging device using the object as an index.

また、請求項11に記載の発明では、撮像装置により撮影された画像に対して所定の画像処理を行う画像処理装置として、前記撮像装置により撮影された画像、および該画像が撮影された時の位置情報、および該画像が撮影された時の撮影方向に係る情報、および該画像が撮影された時の撮影時刻、および前記撮像装置の画角を特定するための情報、を取得するための情報取得手段と、前記位置情報を参照して撮影位置周辺の地図を取得する地図取得手段と、該地図取得手段により取得される地図、および前記情報取得手段により取得される各情報の内容、並びに前記撮像装置の画角に基づき、前記撮像装置により撮影された画像に映っているオブジェクトの全部、もしくは一部(例えば画像の端に映っているものだけ)の、所定のオブジェクトについて、該オブジェクトが、前記地図に登録されているオブジェクトのいずれに相当するものであるかを同定するオブジェクト同定手段と、該オブジェクト同定手段により同定されたオブジェクトの全部、もしくは一部(例えば画像の端に映っているものだけ)の、所定のオブジェクトについて、該オブジェクトが、前記地図中の一部のオブジェクトだけが登録されるランドマークオブジェクト(例えば東京タワーや富士山等の名所)であるか否かを判定するランドマーク判定手段と、該ランドマーク判定手段により認定されたランドマークオブジェクトを指標として、前記撮像装置により撮影された画像に対してトリミングを実行するトリミング実行手段と、を備える構成とする。   In the invention according to claim 11, as an image processing device that performs predetermined image processing on an image captured by the imaging device, an image captured by the imaging device, and when the image is captured Information for acquiring position information, information related to the shooting direction when the image was shot, and information for specifying the shooting time when the image was shot and the angle of view of the imaging device Acquisition means; map acquisition means for acquiring a map around the shooting position with reference to the position information; a map acquired by the map acquisition means; contents of each information acquired by the information acquisition means; and Based on the angle of view of the image pickup device, a predetermined object of all or a part of the object shown in the image taken by the image pickup device (for example, only the image shown at the edge of the image). Object identification means for identifying which of the objects registered in the map corresponds to the object, and all or a part of the objects identified by the object identification means (for example, images) Whether the object is a landmark object (for example, a landmark such as Tokyo Tower or Mount Fuji) in which only a part of the object in the map is registered. A landmark determination unit that determines whether or not, and a trimming execution unit that performs trimming on an image photographed by the imaging apparatus using the landmark object recognized by the landmark determination unit as an index; To do.

このような構成であれば、上記地図取得手段により、撮影位置周辺の地図を取得することが可能になり、該取得される地図に基づいて、上記トリミング実行手段により、画像中のオブジェクトもしくはランドマークオブジェクトを指標とするトリミング(輪郭の設定)を実行することができるようになる。このため、不要な部分が的確に切り落とされた画像が容易に得られるようになる。なお、前記地図中のランドマークオブジェクトについては、ランドマークオブジェクトが予め登録してある既存の地図を利用するようにしてもよく、またユーザが別途その一部を(もしくはその全てを)登録するようにしてもよい。   With such a configuration, it is possible to acquire a map around the shooting position by the map acquisition unit, and based on the acquired map, the trimming execution unit can acquire an object or landmark in the image. Trimming (setting an outline) using an object as an index can be executed. For this reason, an image in which unnecessary portions are accurately cut off can be easily obtained. As for the landmark object in the map, an existing map in which the landmark object is registered in advance may be used, and the user may register a part (or all) of the map separately. It may be.

また、上記請求項11に記載の画像処理装置に関しては、請求項12に記載の発明によるように、前記地図取得手段により取得される地図に、複数のランドマークオブジェクトが登録されており、前記ランドマーク判定手段により複数のランドマークオブジェクトが認定されたときには、前記トリミング実行手段が、いずれのランドマークオブジェクトを前記トリミングの指標とするかを選択可能にするように構成することが有効である。こうすることで、ユーザの好みに合わせてトリミングを行うことが可能になる。   In the image processing apparatus according to claim 11, as in the invention according to claim 12, a plurality of landmark objects are registered in the map acquired by the map acquisition unit, and the land When a plurality of landmark objects are recognized by the mark determination means, it is effective that the trimming execution means can select which landmark object is used as the trimming index. This makes it possible to perform trimming according to the user's preference.

また、請求項13に記載の発明によるように、前記地図取得手段により取得される地図に、複数のランドマークオブジェクトが優先順位を付けられて登録される構成であれば、前記ランドマーク判定手段により複数のランドマークオブジェクトが認定されたとき、前記トリミング実行手段が、前記優先順位の最も高いランドマークオブジェクトを指標として前記トリミングを実行するように構成することが有効である。こうすることで、優先順位に基づいて自動的に的確なトリミングが実行されることになり、ひいてはユーザの手間を極力省いた円滑な画像加工が好適に実現されることになる。   Further, according to the invention of claim 13, if a plurality of landmark objects are registered with priorities in the map acquired by the map acquisition unit, the landmark determination unit When a plurality of landmark objects are recognized, it is effective that the trimming execution unit executes the trimming using the landmark object having the highest priority as an index. By doing so, accurate trimming is automatically executed based on the priority order, and as a result, smooth image processing that saves the user's effort as much as possible is suitably realized.

また、請求項14に記載の発明では、撮像装置により撮影された画像に対して所定の画像処理を行う画像処理装置として、前記撮像装置により撮影された画像、および該画像が撮影された時の位置情報、および該画像が撮影された時の撮影方向に係る情報、および該画像が撮影された時の撮影時刻、および前記撮像装置の画角を特定するための情報、を取得するための情報取得手段と、前記位置情報を参照して撮影位置周辺の地図を取得する地図取得手段と、該地図取得手段により取得される地図、および前記情報取得手段により取得される各情報の内容、並びに前記撮像装置の画角に基づき、前記撮像装置により撮影された画像に映っているオブジェクトの全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、前記地図に登録されているオブジェクトのいずれに相当するものであるかを同定するオブジェクト同定手段と、該オブジェクト同定手段により同定されたオブジェクトの全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、前記地図中のオブジェクトの一部(例えば建物について特別注目すべき看板やエンブレム等の撮影ポイントなど)として設定された注目ポイントの設定されたオブジェクトであるか否かを判定する注目ポイント判定手段と、該注目ポイント判定手段により注目ポイントが設定されていると判定されたオブジェクトがあるときには、少なくともその1つを指標として、前記撮像装置により撮影された画像に対してトリミングを実行するトリミング実行手段と、を備える構成とする。   According to the fourteenth aspect of the present invention, as an image processing device that performs predetermined image processing on an image photographed by the imaging device, an image photographed by the imaging device, and when the image is photographed Information for acquiring position information, information related to the shooting direction when the image was shot, and information for specifying the shooting time when the image was shot and the angle of view of the imaging device Acquisition means; map acquisition means for acquiring a map around the shooting position with reference to the position information; a map acquired by the map acquisition means; contents of each information acquired by the information acquisition means; and Based on the angle of view of the imaging device, for all or some of the predetermined objects in the image captured by the imaging device, the object Object identifying means for identifying which of the objects registered in the object, and for all or a part of the objects identified by the object identifying means, the object Attention point determination means for determining whether or not an object has a point of interest set as a part of an object in the map (for example, a shooting point such as a signboard or emblem to which special attention should be paid for a building); Trimming execution means for performing trimming on an image photographed by the imaging device using at least one of the objects as an index when there is an object for which the attention point is determined to be set by the attention point determination means; It is set as the structure provided.

こうした構成においては、前記地図取得手段により取得される地図に、所定のオブジェクトについて、特に注目すべき部分である注目ポイント(例えば建物について特別注目すべき看板やエンブレム等の撮影ポイントなど)が登録されており、前記トリミング実行手段により、この注目ポイントを指標として前記トリミングが実行される(例えば注目ポイントを境界にしてトリミングする、あるいは注目ポイントが中心になるようにトリミングする)ようになる。すなわち、このような構成によれば、画像処理の専門知識に乏しいユーザであれ、事前に注目ポイントを設定しておく(もしくは予め登録されている地図を利用する)だけで、好ましい画像を容易に(自動的に)作成することができるようになる。   In such a configuration, an attention point that is a particularly notable part of a predetermined object (for example, a shooting point such as a signboard or an emblem that should be particularly noted for a building) is registered in the map acquired by the map acquisition unit. Then, the trimming is performed by the trimming execution means using this point of interest as an index (for example, trimming with the point of interest as a boundary or trimming so that the point of interest is centered). That is, according to such a configuration, even a user who lacks expertise in image processing can easily obtain a preferable image only by setting a point of interest in advance (or using a pre-registered map). (Automatically) can be created.

また、上記請求項9〜14のいずれか一項に記載の画像処理装置に関しては、請求項15に記載の発明によるように、前記撮像装置により撮影された画像に被写体となる人物が映っているか否かを判定する被写体有無判定手段をさらに設けて、該被写体有無判定手段により被写体となる人物が映っていると判定されたときには、前記トリミング実行手段が、この被写体となる人物も併せ指標として前記トリミングを実行する構成とすることが有効である。   In the image processing device according to any one of claims 9 to 14, as in the invention according to claim 15, whether the person who is the subject appears in the image captured by the imaging device. A subject presence / absence determination unit for determining whether or not the subject person is reflected by the subject presence / absence determination unit. It is effective to adopt a configuration for performing trimming.

通常、被写体となる人物(すなわち、背景の小さな人物は除く)が映っている場合には、この人物(被写体)も、先のオブジェクトやランドマークオブジェクト、あるいは注目ポイントと併せ、画像内に残すようにトリミングすることが望ましい。この点、上記請求項15に記載の構成によれば、こうした被写体となる人物も併せ指標として前記トリミングが実行されることになるため、該被写体となる人物が不要な部分として誤って切り落とされるようなことは、的確に防止されるようになる。そして、具体的な構成としては、例えば上記請求項11に記載の発明を併せ適用して、被写体となる人物が画面中に含まれている場合には、ランドマークオブジェクトを中心(メインの指標)にして且つ、被写体が見切れない程度(サブの指標)になるように、トリミングする構成が考えられる。   Normally, when a person who is the subject (that is, a person with a small background is excluded), this person (subject) is also left in the image together with the previous object, landmark object, or point of interest. It is desirable to trim. In this regard, according to the configuration of the fifteenth aspect, since the trimming is executed using the person as the subject as an index, the person as the subject is erroneously cut off as an unnecessary part. This is precisely prevented. As a specific configuration, for example, when the invention described in claim 11 is applied together and a person as a subject is included in the screen, the landmark object is the center (main index). In addition, a configuration is possible in which trimming is performed so that the subject is not completely visible (sub-index).

また、請求項16に記載の発明では、請求項1〜15のいずれか一項に記載の画像処理装置において、前記情報取得手段により取得される位置情報に基づいて、所定の地図(例えば世界地図や、日本を含めた各国の地図など)上の撮影位置に相当するところへ撮影画像(前記情報取得手段により取得される画像)をそれぞれ配置することにより、地図上に1乃至複数の画像が配置された新たな画像を作成するようにする。こうした構成によれば、例えば旅行中にいろいろな場所でたくさんの画像を撮影した場合であれ、撮影画像ごとの撮影位置が一目で分かるような新たな画像が作成されることになる。   Further, in the invention according to claim 16, in the image processing device according to any one of claims 1 to 15, a predetermined map (for example, a world map) based on the position information acquired by the information acquisition means. 1 or a plurality of images are arranged on the map by respectively arranging the photographed images (images acquired by the information acquisition means) at locations corresponding to the shooting positions on a map of each country including Japan. To create a new image. According to such a configuration, for example, even when many images are taken at various places during a trip, a new image is created so that the shooting position for each shot image can be seen at a glance.

他方、請求項17に記載の発明では、撮影画像を撮像して適宜の記憶装置に保存する撮像装置として、撮影時の位置情報を検出する位置情報検出手段(例えばGPS(Global Positioning System)を利用したものなど)と、撮影時刻を検出する撮影時刻検出手段(例えば電波時計など)と、撮影方向に係る情報を検出する撮影方向検出手段(例えば磁気センサ等からなる傾きセンサ)と、をさらに備え、撮影時には、前記位置情報検出手段および前記撮影時刻検出手段および撮影方向検出手段によりそれぞれ検出される前記位置情報および前記撮影時刻および前記撮影方向に係る情報を前記記憶装置に格納する構成とする。こうした撮像装置によれば、前記撮影時の位置情報(撮影場所)、および撮影方向、および撮影時刻などが容易に得られるようになる。すなわち、こうした撮像装置は、上記請求項1〜15のいずれか一項に記載の画像処理装置と組み合わせて用いて特に有益である。   On the other hand, in the invention described in claim 17, a position information detecting means (for example, GPS (Global Positioning System) for detecting position information at the time of shooting is used as an image pickup apparatus that picks up a shot image and stores it in an appropriate storage device. And a shooting time detecting means (for example, a radio clock) for detecting the shooting time, and a shooting direction detecting means (for example, a tilt sensor including a magnetic sensor) for detecting information related to the shooting direction. At the time of shooting, the position information and the shooting time detection unit and the shooting direction detection unit respectively detect the position information and the shooting time and the shooting direction information stored in the storage device. According to such an image pickup apparatus, position information (shooting location), shooting direction, shooting time, and the like at the time of shooting can be easily obtained. That is, such an imaging apparatus is particularly useful when used in combination with the image processing apparatus according to any one of claims 1 to 15.

また、上記各手段に加えてさらに、温度(気温)および湿度および圧力(気圧)を検出する手段(例えば所定のセンサ)を備える構成とすれば、例えば上記請求項3に記載の画像処理装置などと組み合わせて用いて特に有益な撮像装置が実現されることになる。   Further, in addition to each of the above means, if the apparatus further comprises means (for example, a predetermined sensor) for detecting temperature (air temperature), humidity and pressure (atmospheric pressure), for example, the image processing apparatus according to claim 3 or the like A particularly useful imaging device is realized in combination with the above.

以下、図1〜図4を参照して、この発明に係る画像処理装置および撮像装置を具体化した一実施の形態について説明する。   Hereinafter, an embodiment in which an image processing apparatus and an imaging apparatus according to the present invention are embodied will be described with reference to FIGS.

はじめに、図1を参照して、これら装置に係る画像処理システムの概要(概略構成)について説明する。なお、この図1は、該システムの概略構成を示すブロック図である。
同図1に示されるように、このシステムは、大きくは、例えばコンピュータ(ここではコンピュータ10)の表示装置として用いられるモニタ18と、例えばインクジェット式のカラープリンタ17と、これら画像出力機器の各出力について所定の画像処理を行うコンピュータ10(画像処理装置)とを有して構成されている。
First, an outline (schematic configuration) of an image processing system according to these apparatuses will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of the system.
As shown in FIG. 1, this system mainly includes a monitor 18 used as a display device of a computer (here, a computer 10), an ink-jet color printer 17, and outputs of these image output devices. And a computer 10 (image processing apparatus) that performs predetermined image processing.

また、デジタルカメラ20(撮像装置)は、適宜の記憶媒体を有して、所定の光電変換素子を通じて撮像された静止画(もしくは動画)をデジタルデータとして記録(保存)するものである。また一方、サーバ(データベース)30は、様々な地図(例えば世界地図や、日本を含めた各国の地図など)や各地の天候・気候情報等を保有しており、これら地図等の情報についてのダウンロードを一部のユーザのみに(あるいは全てのユーザに)許可することにより、上記地図等の各種情報をデータ(デジタルデータ)としてユーザに提供するものである。また、入力装置16は、例えばマウスやキーボード等からなるものであり、ユーザがこの入力装置16を操作することによって、上記コンピュータ10の動作へユーザの意思を適宜に反映させることができるようになっている。   The digital camera 20 (imaging device) has an appropriate storage medium and records (stores) a still image (or moving image) captured through a predetermined photoelectric conversion element as digital data. On the other hand, the server (database) 30 holds various maps (for example, world maps, maps of countries including Japan, etc.), weather / climate information of each location, and the like. By permitting only some users (or all users), various types of information such as the map are provided to the users as data (digital data). The input device 16 is composed of, for example, a mouse, a keyboard, and the like, and the user's intention can be appropriately reflected in the operation of the computer 10 by the user operating the input device 16. ing.

また、詳しくは、上記コンピュータ10(画像処理装置)は、例えばハードディスクおよびROM(リードオンリーメモリ)等からなる記憶装置12を内蔵している。そして、この記憶装置12には、例えばOS(オペレーティングシステム)やアプリケーションソフトウェアと共に、プリンタドライバやモニタドライバをはじめとする上記入力装置16のドライバ等も含めた各種のドライバ(ソフトウェア)、さらには各種の撮影環境情報の別に所定の画像処理が規定された複数種の画像処理テーブルT(詳しくは後述)などが格納されている。   More specifically, the computer 10 (image processing apparatus) includes a storage device 12 including, for example, a hard disk and a ROM (read only memory). The storage device 12 includes, for example, various drivers (software) including a driver for the input device 16 including a printer driver and a monitor driver, as well as an OS (operating system) and application software, and various types of drivers. A plurality of types of image processing tables T (details will be described later) and the like in which predetermined image processing is defined separately from the shooting environment information are stored.

また、このコンピュータ10には、適宜のインターフェース等からなる情報取得部11が設けられており、上記カメラ20の記憶媒体に保存されている撮影画像、並びに該画像に関連する各種の情報(詳しくは後述)、さらには、上記サーバ30により提供される地図等の各種情報も、この情報取得部11を介して、上記記憶装置12に取り込まれるようになっている。   In addition, the computer 10 is provided with an information acquisition unit 11 including an appropriate interface and the like, and a captured image stored in the storage medium of the camera 20 and various information related to the image (specifically, details). Further, various information such as a map provided by the server 30 is also taken into the storage device 12 via the information acquisition unit 11.

さらに、同コンピュータ10は、これら記憶装置12および情報取得部11に加え、例えばCPU(基本処理装置)およびRAM(ランダムアクセスメモリ)等からなる演算装置13と、適宜の回路からなるプリンタ駆動回路14、およびモニタ駆動回路15とを有し、これらの構成要素を通じて、上記プリンタ17およびモニタ18を制御することができるように構成されている。要するに、このコンピュータ10も、一般のコンピュータ(電子制御装置)と同様、基本的に、上記演算装置13の命令(演算処理)のもとに各種の制御を実行するようになっており、上記情報取得部11を介したデータの読み込みなども、この演算装置13の命令に基づいて実行されることになる。すなわち、この実施の形態においては、上記情報取得部11および記憶装置12および演算装置13等によって、上記カメラ20にて取得(撮影)された各情報を取得するための情報取得手段、並びに、撮影位置周辺の地図を取得する地図取得手段が実現されている。   Further, in addition to the storage device 12 and the information acquisition unit 11, the computer 10 includes an arithmetic device 13 including, for example, a CPU (basic processing device) and a RAM (random access memory), and a printer driving circuit 14 including an appropriate circuit. And the monitor drive circuit 15, and the printer 17 and the monitor 18 can be controlled through these components. In short, like the general computer (electronic control device), the computer 10 basically executes various controls based on the instructions (arithmetic processing) of the arithmetic device 13. The reading of data via the acquisition unit 11 is also executed based on the instruction of the arithmetic device 13. That is, in this embodiment, information acquisition means for acquiring each information acquired (captured) by the camera 20 by the information acquisition unit 11, the storage device 12, the arithmetic unit 13, and the like, and imaging Map acquisition means for acquiring a map around the position is realized.

図2は、上記プリンタドライバのプログラム構成を示すブロック図である。なお、このプリンタドライバは、例えば上記演算装置13の演算処理に基づいて実行されるようになっている。   FIG. 2 is a block diagram showing the program configuration of the printer driver. The printer driver is executed based on the arithmetic processing of the arithmetic device 13, for example.

同図2に示されるように、このプリンタドライバは、基本的には、上記プリンタ17にて出力すべき画像(印刷用の画像)に対して、例えば各種のフィルタ等による画像補正や、トリミング(画像の不要な部分をカットして輪郭を決定する処理)等の画像加工、などを行う画像補正加工部P1と、これら画像補正や画像加工の施された画像データを、上記プリンタ17にて出力(印刷)可能な画像データへ変換するプリンタ用画像作成部P2と、を有して構成されている。   As shown in FIG. 2, this printer driver basically performs image correction or trimming (for example, various filters) on an image to be output by the printer 17 (image for printing). An image correction processing unit P1 that performs image processing such as cutting an unnecessary part of an image to determine an outline) and the image data subjected to the image correction and image processing are output by the printer 17 A printer image creation unit P2 for converting the image data into (printable) image data.

すなわち、例えば上記カメラ20により撮影された画像(記憶装置12に記憶されている画像)を対象(印刷用の画像)にして、上記OSの管理のもとに印刷用のアプリケーションソフトウェアが実行され、このソフトウェア上で、例えば上記入力装置16を通じてユーザから印刷の指示が上記演算装置13に与えられる(例えばユーザがモニタ18の画面上の「印刷ボタン」をマウスでクリックする)と、上記プリンタドライバにより、上記印刷用の画像に対して、所望とされる画像補正および画像加工、さらには上記プリンタ17にて出力(印刷)可能な画像データへの変換などが実行されることになる。   That is, for example, printing application software is executed under the management of the OS, targeting an image (image stored in the storage device 12) taken by the camera 20 as an object (image for printing). On this software, for example, when a printing instruction is given from the user to the arithmetic device 13 through the input device 16 (for example, the user clicks a “print button” on the screen of the monitor 18 with a mouse), the printer driver The desired image correction and image processing, conversion into image data that can be output (printed) by the printer 17, and the like are performed on the printing image.

なお、この実施の形態においては、前述の顔認識手段が、上記画像補正加工部P1の一部として用意されている。ちなみに、こうした顔認識手段としては、例えば肌色領域を抽出し、この抽出した肌色領域から、所定の顔パターン(例えば顔に関する重心・軌跡長・面積などの形状情報)に基づいて、該当する領域(顔領域)を検出するもの、等を用いることができる。   In this embodiment, the face recognition means described above is prepared as a part of the image correction processing unit P1. Incidentally, as such face recognition means, for example, a skin color region is extracted, and a corresponding region (for example, shape information such as the center of gravity, locus length, area, etc. regarding the face) is extracted from this extracted skin color region ( What detects a face area) can be used.

図3は、上記デジタルカメラ20の構成をより詳細に示すブロック図である。
同図3に示されるように、このカメラ20は、大きくは、例えばCCDセンサやCMOSセンサ等からなる撮像素子21(光電変換素子)や、適宜の表示装置(ディスプレイDP)、並びに、例えばメモリカード等からなる記憶装置(記憶媒体MC)、そして例えばプロセッサやASIC等からなる制御部22および信号処理回路(撮像信号処理回路23および画像圧縮回路24)等を有して構成されている。
FIG. 3 is a block diagram showing the configuration of the digital camera 20 in more detail.
As shown in FIG. 3, the camera 20 is roughly composed of an image pickup device 21 (photoelectric conversion device) such as a CCD sensor or a CMOS sensor, an appropriate display device (display DP), and a memory card, for example. And a control unit 22 and a signal processing circuit (an imaging signal processing circuit 23 and an image compression circuit 24) such as a processor and an ASIC.

また、このカメラ20(撮像装置)においては、例えばGPS(Global Positioning System)を利用した位置情報検出部(位置情報検出手段)25aや、例えば電波時計等からなる撮影時刻検出部(撮影時刻検出手段)25b、並びに、例えば磁気センサ等を利用して上記カメラ20(厳密にはそのレンズ)の向いている方角を特定する方角センサや、例えば加速度センサ等を利用して上記カメラ20の上下の向きの傾き度合を検出する傾きセンサなどによって構成される撮影方向検出部(撮影方向検出手段)25c、そして、温度(気温)および圧力(気圧)および湿度をそれぞれ検出する温度検出部25dおよび圧力検出部25eおよび湿度検出部25fとしての各種センサ、がさらに設けられている。そして、これら検出部により、上記制御部22の制御のもと、撮影時の位置情報(詳しくは緯度および経度および高度など)、撮影時刻(詳しくは年・月・日・1日における時刻など)、撮影方向に係る情報(詳しくは撮影時におけるカメラ20の上下の向きの傾き度合、および撮影時にカメラ20の向いていた方角を特定するための情報など)、および撮影時の温度(気温)、圧力(気圧)、湿度、等々の撮影環境情報が読み取られることにより、これらの情報が上記画像情報(撮影画像)と併せて(しかも画像ごとに上記各情報が関連付けされて)、例えばExif(デジタルカメラ標準の記録フォーマット)形式のファイルとして上記記憶媒体MCに格納されるようになっている。また、この記憶媒体MCには、上記各種の撮影環境情報のほかにも、露出時間、フラッシュ、露出モード、ホワイトバランス、レンズの焦点距離、等々の各画像の撮影条件なども、上記画像情報(撮影画像)に関連付けされた状態で、例えばExif形式のファイルとして格納され、必要に応じて読み出すことができるようになっている。   Further, in this camera 20 (imaging device), for example, a position information detection unit (position information detection unit) 25a using a GPS (Global Positioning System), a shooting time detection unit (shooting time detection unit) such as a radio clock, etc. ) 25b, and a direction sensor for specifying the direction in which the camera 20 (specifically, its lens) is directed using, for example, a magnetic sensor, or the vertical direction of the camera 20 using, for example, an acceleration sensor An imaging direction detection unit (imaging direction detection means) 25c configured by an inclination sensor or the like that detects the degree of inclination, and a temperature detection unit 25d and a pressure detection unit that detect temperature (air temperature), pressure (atmospheric pressure), and humidity, respectively. 25e and various sensors as the humidity detection unit 25f are further provided. Then, by these control units, under the control of the control unit 22, position information at the time of shooting (specifically, latitude, longitude, altitude, etc.), shooting time (specifically, time of year, month, date, day, etc.) , Information related to the shooting direction (specifically, the degree of inclination of the up and down direction of the camera 20 at the time of shooting, and information for specifying the direction the camera 20 was facing at the time of shooting), and the temperature (air temperature) at the time of shooting, By reading photographing environment information such as pressure (atmospheric pressure), humidity, and the like, these pieces of information are combined with the image information (captured image) (and the information is associated with each image), for example, Exif (digital It is stored in the storage medium MC as a file in the format of a standard camera recording format). In addition to the above various shooting environment information, the storage medium MC also includes shooting conditions for each image such as exposure time, flash, exposure mode, white balance, lens focal length, and the like. In the state associated with the (photographed image), for example, it is stored as an Exif format file and can be read out as necessary.

すなわち、このカメラ20の撮影時においては、上記撮像素子21により、適宜の光電変換を経て画像情報(当該カメラ20により撮影された画像)が取得(撮像)されるとともに、上記各検出部25a〜25fにより、先に列記した撮影環境情報がそれぞれ取得され、これら情報(画像情報および各種の撮影環境情報)のいずれもが、上記記憶媒体MCに格納される。そして、上記制御部22の制御のもと、上記画像情報(撮影画像)に対して、上記撮像信号処理回路23や画像圧縮回路24にて適宜の画像処理(撮像信号処理および画像圧縮処理)が施された後、その画像処理の施された画像情報(撮影画像)が、上記記憶媒体MCへさらに格納(もしくは上記画像情報が更新)されることになる。   That is, at the time of photographing by the camera 20, image information (image photographed by the camera 20) is acquired (captured) through appropriate photoelectric conversion by the imaging element 21, and each of the detection units 25a to 25a. The imaging environment information listed above is respectively acquired by 25f, and all of the information (image information and various imaging environment information) is stored in the storage medium MC. Under the control of the control unit 22, appropriate image processing (imaging signal processing and image compression processing) is performed on the image information (captured image) by the imaging signal processing circuit 23 and the image compression circuit 24. After being applied, the image information (photographed image) subjected to the image processing is further stored (or the image information is updated) in the storage medium MC.

また、このカメラ20は、上記ディスプレイDPと共に操作部OP(例えばボタンやレバー等)も備えているため、ディスプレイ(例えば液晶モニタ)DPを見ながら操作部OPを操作する(なおこのとき、ディスプレイDPの画面表示は、上記制御部22により、操作部OPの操作(動作や状態)に応じて制御される)ことにより、ユーザは、必要に応じて、自らの嗜好を、上記記憶媒体MCに格納された各種の情報(画像情報および各種の撮影環境情報)へ反映させることができる。   In addition, since the camera 20 includes an operation unit OP (for example, a button or a lever) together with the display DP, the operation unit OP is operated while viewing the display (for example, a liquid crystal monitor) DP (at this time, the display DP). The screen display is controlled by the control unit 22 in accordance with the operation (operation or state) of the operation unit OP), so that the user stores his / her preferences in the storage medium MC as necessary. It can be reflected in various information (image information and various photographing environment information).

次に、図4〜図6を併せ参照して、上記システムにより実行される画像処理の一例、より詳しくは、画像処理手段としての上記演算装置13(図1)や上記画像補正加工部P1(図2)等の協働のもとに、上記カメラ20により撮影された画像に対して実行される画像補正の一例について説明する。なお、図4は、この画像処理の主な処理手順を示すフローチャート、また図5および図6は、それぞれこの画像処理に用いられる画像処理テーブルT(図1)の一例を示す図表である。   Next, referring also to FIGS. 4 to 6, an example of image processing executed by the system, more specifically, the arithmetic device 13 (FIG. 1) as the image processing means and the image correction processing unit P1 ( An example of image correction performed on the image taken by the camera 20 under the cooperation of FIG. FIG. 4 is a flowchart showing the main processing procedure of the image processing, and FIGS. 5 and 6 are tables showing an example of the image processing table T (FIG. 1) used for the image processing.

同図4に示されるように、この一連の処理に際しては、まず、ステップS11において、当該画像処理の対象とする画像を取得する。具体的には、上記演算装置13(図1)の命令に基づき、上記情報取得部11を介して、上記カメラ20の記憶媒体MC(図3)に保存されている撮影画像、並びに該画像に関連する各種の情報(先に列記した撮影環境情報および撮影条件)を、上記記憶装置12に取り込み、格納する。   As shown in FIG. 4, in this series of processing, first, in step S11, an image to be subjected to the image processing is acquired. Specifically, based on a command from the arithmetic unit 13 (FIG. 1), the captured image stored in the storage medium MC (FIG. 3) of the camera 20 and the image are stored via the information acquisition unit 11. Various related information (the shooting environment information and the shooting conditions listed above) is taken into the storage device 12 and stored.

そして、続くステップS12で、上記ステップS11にて取得される画像の撮影環境情報を確認した後、さらに続くステップS13で、この撮影環境情報に基づいて、当該画像(撮影画像)の良否判定を行う。   In step S12, the shooting environment information of the image acquired in step S11 is confirmed. In step S13, the quality of the image (captured image) is determined based on the shooting environment information. .

詳しくは、この画像の良否判定は、上記記憶装置12に記憶されている画像処理テーブルT(図1)に基づいて、同テーブルTに規定された判定項目(例えば逆光、あるいは色温度の良否判定など)ごとに実行される。ちなみに、この判定項目は、予め設定しておくこと(自動判定)もできるが、判定の都度、ユーザが選択するようにしてもよい。   Specifically, this image quality determination is based on the image processing table T (FIG. 1) stored in the storage device 12 based on the determination items defined in the table T (for example, backlight or color temperature quality determination). Etc.). Incidentally, although this determination item can be set in advance (automatic determination), the user may select it every time it is determined.

図5は、こうした画像の良否判定に用いられるテーブルの一例を示す図表である。
同図5に示されるように、このテーブルにおいては、所定の画像処理(A〜D)が、画像の良否を判定するための一定の基準(各判定項目の良否判定基準)ごとに関連付けされている。しかもここでは、上記情報取得部11(情報取得手段)により取得される各情報(撮影環境情報)の内容が、上記基準(良否判定基準)として加味されるようになっている。
FIG. 5 is a chart showing an example of a table used for such image quality determination.
As shown in FIG. 5, in this table, predetermined image processing (A to D) is associated with each fixed criterion (quality criterion for each determination item) for determining image quality. Yes. In addition, here, the contents of each piece of information (imaging environment information) acquired by the information acquisition unit 11 (information acquisition means) is taken into account as the reference (good / bad determination reference).

すなわち、上記ステップS13における画像の良否判定は、処理対象となる上記画像が、こうしたテーブルに規定された基準(良否判定基準)を満たしているか否かに基づいて行われることになる。   That is, the image quality determination in step S13 is performed based on whether or not the image to be processed satisfies the criteria (quality criteria) defined in such a table.

具体的には、例えば逆光であるか否かを判別する場合には、例えば撮影時刻(季節や1日における時間帯)から太陽の位置などを把握し、撮影時の位置情報(撮影場所)および撮影方向に基づいて、撮影時に撮像レンズが太陽に向いているか否か、および撮影場所が屋内か屋外かを判定(推測)する。そうして、これらを対象の画像の色情報と併せ加味(例えば顔認識手段を使用)して、逆光であるか否かを判定する。すなわち、例えば顔認識手段の認識が不十分である(確実ではない)ときには、上記撮影環境情報の内容に基づいて、例えば屋内であるときには逆光ではないと判定し、あるいは屋外で、且つ撮影時に撮像レンズが太陽に向いているときには逆光であると判定する。他方、顔認識手段の認識が十分(確実)である場合には、通常どおり、該顔認識手段により被写体を認識し、背景と比べて被写体の明度が暗いときに逆光であると判定する。   Specifically, for example, when determining whether or not the light is backlit, for example, the position of the sun is grasped from the shooting time (season or time zone in one day), and position information (shooting location) at the time of shooting and Based on the shooting direction, it is determined (estimated) whether or not the imaging lens faces the sun during shooting and whether the shooting location is indoor or outdoor. Then, these are combined with the color information of the target image (for example, using a face recognition unit) to determine whether the light is backlit. That is, for example, when the recognition of the face recognition means is insufficient (not sure), it is determined that it is not backlit, for example, indoors based on the content of the shooting environment information, or is taken outdoors and at the time of shooting. When the lens faces the sun, it is determined that the light is backlit. On the other hand, when the recognition by the face recognition unit is sufficient (reliable), the subject is recognized by the face recognition unit as usual, and it is determined that the backlight is backlit when the brightness of the subject is darker than the background.

なお、ここで示す判定態様はあくまで一例であり、用途等に応じて任意の判定態様を採用することができる。例えば、上記撮影環境情報の内容をより重要視するようにして、同情報から屋内であると推測されるときには、上記顔認識手段の認識の程度によらず、逆光であると判定するようにしてもよい。また、上記撮影時刻および位置情報および撮影方向から、季節や天候(例えば上記サーバ30(図1)により提供される情報を利用して取得)なども把握して、これらを併せ加味するようにすれば、逆光の判定精度をさらに高めることが可能になる。また、逆光の画像は、夕方の西日(夕焼け)の中で撮影されたものが多い(しかも、夕焼けの画像は顔認識手段による認識ミスが起こり易い)ため、上記撮影時刻(季節や1日における時間帯)等に基づいて、こうした画像(夕焼けの画像)であるか否かを判定するように構成することも有効である(例えば夕焼けの画像のときにのみ、上記撮影環境情報の内容を判定に用いる等)。   Note that the determination mode shown here is merely an example, and any determination mode can be adopted depending on the application or the like. For example, the content of the shooting environment information is more important, and when it is estimated that the information is indoors, it is determined that the backlight is back light regardless of the degree of recognition of the face recognition unit. Also good. Further, from the shooting time, position information, and shooting direction, the season and weather (for example, acquired using the information provided by the server 30 (FIG. 1)) are also grasped and taken into account. As a result, it is possible to further increase the accuracy of determining backlight. Also, many backlight images were taken in the evening in the evening (and sunset) (and sunset images are prone to recognition errors by the face recognition means), so the above shooting time (season and day) It is also effective to determine whether or not this image (sunset image) is based on the image of the shooting environment information (for example, only when the image is a sunset image). Etc.)

また、撮影場所が屋内か屋外かの判定については、撮影時刻、温度(気温)、圧力(気圧)、湿度なども、上記撮影時の位置情報に併せ加味するようにすれば、その精度をさらに高めることが可能になる(例えば季節が冬で気温が高ければ(時間帯も加味)屋内と判定する等)。ただし、上記撮影時の位置情報から撮影場所が屋内か屋外かが明らかであるような構成(例えば該位置情報に緯度・経度・高度などが精度の高い検出値として含まれていて、地図と照らし合わせれば屋内か屋外かが明らかになる場合、あるいは該位置情報に屋内か屋外かに係る情報が予め含まれている場合など)であれば、上記撮影時の位置情報だけでも十分である。   In addition, regarding the determination of whether the shooting location is indoor or outdoor, if the shooting time, temperature (air temperature), pressure (atmospheric pressure), humidity, etc. are also taken into account in the position information at the time of shooting, the accuracy is further improved. (For example, if the season is winter and the temperature is high (including the time zone), it is determined indoors). However, a configuration that makes it clear whether the shooting location is indoor or outdoor from the position information at the time of shooting (for example, the position information includes latitude, longitude, altitude, etc. as highly accurate detection values and If it is clear that it is indoor or outdoor, or if the positional information includes information on whether it is indoor or outdoor in advance), only the positional information at the time of shooting is sufficient.

また一方、例えば画像の色温度およびコントラストおよびカラーバランスが適正であるか否かを判別する場合には、例えば撮影時刻および位置情報(撮影場所)および撮影方向から、撮影場所が屋内か屋外かや、季節、天候(例えば上記サーバ30(図1)により提供される情報を利用して取得)などを把握する。そうして、これらを対象の画像の色情報と併せ加味して、画像の色温度およびコントラストおよびカラーバランスが適正であるか否かを判定する。すなわち、例えば撮影場所が屋外であり、天候が「曇り」や「雨」であれば、色温度が高く、カラーバランスが青に偏り、コントラストが低くなりがちであるから、これら要素(色温度・カラーバランス・コントラスト)の良否判定についての許容範囲(良否判定基準)を厳しくして、画像の値がこの許容範囲を満足しないときには、適正ではないと判定する。他方、撮影場所が屋内であるか、もしくは天候が「晴れ」であれば、通常の許容範囲に基づいて、良否判定を行うようにする。   On the other hand, when determining whether the color temperature, contrast, and color balance of an image are appropriate, for example, whether the shooting location is indoor or outdoor based on the shooting time and position information (shooting location) and the shooting direction. And the season, the weather (for example, acquired using the information provided by the server 30 (FIG. 1)), and the like. Then, these are combined with the color information of the target image to determine whether the color temperature, contrast, and color balance of the image are appropriate. That is, for example, if the shooting location is outdoors and the weather is “cloudy” or “rainy”, the color temperature is high, the color balance is biased to blue, and the contrast tends to be low. When an acceptable range (good / bad judgment criterion) for determining whether or not the color balance / contrast is acceptable is strict, and when the image value does not satisfy the allowable range, it is determined that the image is not appropriate. On the other hand, if the shooting location is indoors or the weather is “sunny”, the pass / fail judgment is made based on the normal allowable range.

なお、この判定態様についても、これはあくまで一例であり、用途等に応じて任意の判定態様を採用することができる。例えば、逆に天候が「晴れ」のときに許容範囲(良否判定基準)を緩める(広くする)ようにしてもよい。また、撮影場所が屋内であれば、天候が画質に影響を及ぼすことはないので、撮影場所が屋内か屋外かの判別を先に行えば、天候の判別は割愛することができる。   Note that this determination mode is also merely an example, and any determination mode can be adopted depending on the application or the like. For example, on the contrary, when the weather is “clear”, the allowable range (good / bad determination criterion) may be relaxed (widened). Also, if the shooting location is indoors, the weather does not affect the image quality. Therefore, if it is determined whether the shooting location is indoors or outdoors, the determination of the weather can be omitted.

そして、このステップS13において、上記基準(良否判定基準)を満たさないと判定されたときには、続くステップS14において、該基準(もしくは判定項目)に関連付けされた上記テーブル(図5)上の所定の画像処理(上記A〜Dのいずれかの処理)が実行され、これによって、当該画像に適宜の補正が施されることになる。他方、上記ステップS13において、上記基準(良否判定基準)を満たすと判定されたときには、上記画像補正は実行されないまま、次のステップS15へ移行することになる。   If it is determined in step S13 that the above criteria (good / bad determination criteria) are not satisfied, in a subsequent step S14, a predetermined image on the table (FIG. 5) associated with the criteria (or determination items) is obtained. The processing (any one of the above-described A to D) is executed, and accordingly, the image is appropriately corrected. On the other hand, when it is determined in step S13 that the above-described criterion (good / bad determination criterion) is satisfied, the process proceeds to the next step S15 without executing the image correction.

なお、上記テーブル(図5)上の画像処理(A〜D)は、変数(パラメータ)を含むものであってもよい。すなわち、上記テーブル(図5)における画像処理(A〜D)に予め変数を組み込んでおき、上記情報取得部11(情報取得手段)により取得される各情報(撮影環境情報)の内容に基づいて、これら画像処理(A〜D)の処理内容を一部変更するようにしてもよい。例えば画像処理(B〜D)の場合、撮影場所が屋外で、天候が「曇り」や「雨」のときにおける上記各要素(色温度・カラーバランス・コントラスト)の悪化度合を変数として入力し、この悪化度合を補償するような補正処理にすれば、より適切な画像補正が行われることになる。また、これらの要素(色温度・カラーバランス・コントラスト)は、季節(例えば冬/夏/春・秋)や時刻(例えば日中/夜)にも影響されるため、画像補正に際しては、季節や時刻も加味(画像処理(B〜D)に変数として入力)するようにして、補正の種類(例えばフィルタの種類)や度合いを決定することが望ましい。   Note that the image processing (A to D) on the table (FIG. 5) may include variables (parameters). That is, variables are incorporated in advance in the image processing (A to D) in the table (FIG. 5), and based on the contents of each information (imaging environment information) acquired by the information acquisition unit 11 (information acquisition means). The processing contents of these image processes (A to D) may be partially changed. For example, in the case of image processing (BD), the degree of deterioration of each of the above elements (color temperature, color balance, contrast) when the shooting location is outdoors and the weather is “cloudy” or “rainy” is input as a variable. If correction processing is performed to compensate for this degree of deterioration, more appropriate image correction can be performed. These factors (color temperature, color balance, and contrast) are also affected by the season (for example, winter / summer / spring / autumn) and the time (for example, day / night). It is desirable to determine the type of correction (for example, the type of filter) and the degree so that the time is also taken into account (input to the image processing (BD) as a variable).

また、上記基準(もしくは判定項目)ごとに、複数の処理を用意しておき(すなわち、複数の所定の画像処理を撮影画像に対して実行可能にしておき)、例えばアプリケーションソフトウェア上で、ユーザがそのいずれかを選択することができるようにしてもよい。   In addition, a plurality of processes are prepared for each criterion (or determination item) (that is, a plurality of predetermined image processes can be performed on a photographed image), and the user can execute, for example, on application software. One of them may be selected.

さらに、続くステップS15では、上記情報取得部11(情報取得手段)により取得される各情報(撮影環境情報)の内容に基づき、当該画像(撮影画像)についてシーン(場面)の判別を行う。そして、このシーンの判別も、上記記憶装置12に記憶されている画像処理テーブルT(図1)に基づいて実行される。   Further, in the subsequent step S15, a scene (scene) is determined for the image (captured image) based on the contents of each information (capture environment information) acquired by the information acquisition unit 11 (information acquisition means). This scene discrimination is also executed based on the image processing table T (FIG. 1) stored in the storage device 12.

図6は、こうしたシーンの判別に用いられるテーブルの一例を示す図表である。
同図6に示されるように、このテーブルにおいては、上記情報取得部11(情報取得手段)により取得される各情報(撮影環境情報)の内容が、所定のシーン(場面)ごとに分類されている。具体的には、このテーブルにおいては、処理対象となる上記画像のタイプが、「被写体のみ」「風景のみ」「被写体および風景」の3つのカテゴリのいずれに該当するか、のほか、季節(例えば春/夏/秋/冬)、天候(例えば晴れ/曇り/雨)、1日における時間帯(例えば0:00〜3:00/…/21:00〜24:00)、温度(例えば〜4℃/…/28℃〜)、圧力(例えば高圧/普通/低圧)、湿度(例えば高湿/普通/低湿)、撮影場所(例えば屋内/山/海/街中/…)、画像の色彩(例えば白基調/黒基調/赤基調/…)、などの画像パラメータが、各種のシーン(場面)を分類するものとして用意されており、これら画像パラメータの組合せによって、各種のシーン(場面)が規定されるようになっている。例えば、「被写体のみ」の画像で、季節が「春」である場合(他の画像パラメータは任意)を1つのシーン、また例えば、季節が「春」、撮影場所が「屋外(屋内以外)」、画像の色彩が「白基調」である場合(他の画像パラメータは任意)を別の1つのシーン等とする。なお、上記撮影場所の判定、例えば撮影場所が「山」であるか否かの判定は、撮影時の位置情報(高度)のほか、温度、湿度、気圧(高度(標高)に応じて変化)、さらには季節および画像の色彩(例えば季節に応じた山の色を予め登録)、などに基づいて行うことができる。
FIG. 6 is a chart showing an example of a table used for such scene discrimination.
As shown in FIG. 6, in this table, the contents of each piece of information (imaging environment information) acquired by the information acquisition unit 11 (information acquisition unit) is classified for each predetermined scene (scene). Yes. Specifically, in this table, the type of the image to be processed corresponds to one of the three categories of “subject only”, “landscape only”, “subject and landscape”, as well as the season (for example, Spring / summer / autumn / winter), weather (for example, sunny / cloudy / rainy), time zone in one day (for example, 0: 0 to 3:00 /.../ 21:00 to 24:00), temperature (for example, ˜4) ° C /.../ 28 ° C ~), pressure (eg high pressure / normal / low pressure), humidity (eg high humidity / normal / low humidity), shooting location (eg indoor / mountain / sea / city / ...), image color (eg Image parameters such as white tone / black tone / red tone / ...) are prepared to classify various scenes (scenes), and various scenes (scenes) are defined by combinations of these image parameters. It has become so. For example, if the image is “subject only” and the season is “spring” (other image parameters are optional), for example, the season is “spring” and the shooting location is “outdoor (not indoors)”. When the color of the image is “white tone” (other image parameters are arbitrary), another scene or the like is assumed. In addition, the determination of the shooting location, for example, whether or not the shooting location is “mountain” is not only the positional information (altitude) at the time of shooting, but also temperature, humidity, and atmospheric pressure (change depending on altitude (altitude)) Further, it can be performed based on the season and the color of the image (for example, the color of the mountain corresponding to the season is registered in advance).

すなわち、このステップS15におけるシーンの判別は、上記情報取得部11(情報取得手段)により取得される各情報(撮影環境情報)の内容(すなわち、上記季節、天候、1日における時間帯、温度(気温)、圧力(気圧)、湿度、撮影場所など)や、画像情報(すなわち、上記画像のタイプや画像の色彩など)に基づいて、予め設定されたシーン(場面)のいずれに該当するかを判定(判別)するかたちで行われる。   That is, the determination of the scene in step S15 is performed by the contents of each piece of information (imaging environment information) acquired by the information acquisition unit 11 (information acquisition unit) (that is, the season, weather, time zone in day, temperature ( Temperature), pressure (atmospheric pressure), humidity, shooting location, etc.) and image information (that is, the type of image or color of the image, etc.), which scene is set in advance It is done in the form of judgment (discrimination).

そして、続くステップS16においては、該判別されたシーン(場面)に関連付けされた上記テーブル(図5)上の所定の画像処理が実行されることにより、当該画像の補正が行われることになる。   In the subsequent step S16, the image is corrected by executing predetermined image processing on the table (FIG. 5) associated with the determined scene (scene).

具体的には、例えば季節が「春」で、画像の色彩が「白基調」である場合には「桜」のシーン、例えば季節が「秋」で、画像の色彩が「赤基調」である場合には「紅葉」のシーン、例えば季節が「冬」で、画像の色彩が「白基調」である場合には「雪」のシーン、天候が「晴れ」で、「温度が低い」場合には「日陰」のシーン、などと判定(判別)することにより、これらシーン(場面)ごとに予め設定された最適な画像処理を実行するようにする。例えば「桜」のシーンであれば、見映えを良くするために、全体を少し桃色(ピンク)に補正する、あるいは「山」や「海」のシーン(撮影場所が「山」や「海」)であれば、山の稜線や水平線などが適当な位置になるように(例えば水平線が「7:3」の位置になるように)補正する、等々の画像処理を実行する。また、こうした画像処理の実行に際しては、他の画像パラメータ(例えば天候や、1日における時間帯、温度(気温)、圧力(気圧)、湿度など)によって、さらにシーンを細分化(例えば「桜」の「夕方」の「雨」のシーンなど)するようにすれば、こうした多種多様なシーンについても各々、最適な画像補正を行うことが可能になり、ひいては、より精妙な画像補正が実現されるようになる。   Specifically, for example, when the season is “spring” and the color of the image is “white”, the scene of “sakura”, for example, the season is “autumn”, and the color of the image is “red” In the case of “autumn leaves”, for example, when the season is “winter” and the color of the image is “white”, it is “snow”, the weather is “clear”, and “temperature is low” By determining (discriminating) a “shade” scene, etc., optimal image processing preset for each of these scenes (scenes) is executed. For example, in the case of a “Cherry Blossom” scene, the entire image is corrected to pink (pink) to improve the appearance, or “Mountain” or “Sea” scenes (where the shooting location is “Mountain” or “Sea”). ), Image processing such as correction is performed so that the ridgeline or horizontal line of the mountain is at an appropriate position (for example, the horizontal line is at a position of “7: 3”). Further, when executing such image processing, the scene is further subdivided (for example, “cherry blossom”) according to other image parameters (for example, weather, time zone in a day, temperature (air temperature), pressure (atmospheric pressure), humidity, etc.). (Evening “Evening” and “Rain” scenes, etc.), it is possible to perform optimal image correction for each of these various types of scenes. It becomes like this.

また一方、例えば位置情報(撮影場所)を、前述の顔認識手段と併せ利用すれば、被写体の有無についてもこれを、精度よく、より正確に判定することが可能になる。例えば位置情報(撮影場所)から照明環境を把握する(例えば場所ごとに照明情報を予め登録しておく)ことにより、赤味がかった照明環境で撮影したと判定されるときなどには、上記顔認識手段の閾値を通常よりも厳しい値に設定することで、上記被写体の有無を精度よく、より正確に判定することが可能になる。   On the other hand, for example, if position information (photographing location) is used in combination with the above-described face recognition means, it is possible to determine the presence or absence of a subject accurately and more accurately. For example, when it is determined that an image is taken in a reddish lighting environment by grasping the lighting environment from the position information (photographing place) (for example, lighting information is registered in advance for each place), the face By setting the threshold value of the recognition means to a value stricter than usual, it is possible to determine the presence / absence of the subject accurately and more accurately.

この実施の形態においては、このようにして、任意の撮影画像に対して画像補正が実行されることになる。
次に、図7〜図9を併せ参照して、上記システムにより実行される画像処理の一例、より詳しくは、オブジェクト同定手段およびランドマーク判定手段およびトリミング実行手段としての上記演算装置13(図1)や上記画像補正加工部P1(図2)等の協働のもとに、上記カメラ20により撮影された画像に対して実行される画像加工(トリミング)の一例について説明する。なお、図7は、この画像処理の主な処理手順を示すフローチャート、図8(a)および(b)は、この画像処理(トリミング)の一態様を示す模式図、図9は、撮影位置周辺の地図の一例を示す模式図である。
In this embodiment, image correction is performed on an arbitrary captured image in this way.
Next, referring also to FIGS. 7 to 9, an example of the image processing executed by the system, more specifically, the arithmetic unit 13 (FIG. 1) as the object identification means, the landmark determination means, and the trimming execution means. ) And the image correction processing unit P1 (FIG. 2) and the like, an example of image processing (trimming) performed on the image photographed by the camera 20 will be described. 7 is a flowchart showing the main processing procedure of the image processing, FIGS. 8A and 8B are schematic views showing one aspect of the image processing (trimming), and FIG. It is a schematic diagram which shows an example of this map.

同図7に示されるように、この一連の処理に際しては、まず、ステップS21において、当該画像処理の対象とする画像を取得する。具体的には、上記演算装置13(図1)の命令に基づき、上記情報取得部11を介して、上記カメラ20の記憶媒体MC(図3)に保存されている撮影画像、並びに該画像に関連する各種の情報(先に列記した撮影環境情報、およびレンズの焦点距離をはじめとするその他の撮影条件)を、上記記憶装置12に取り込み、格納する。   As shown in FIG. 7, in this series of processing, first, in step S21, an image to be subjected to the image processing is acquired. Specifically, based on a command from the arithmetic unit 13 (FIG. 1), the captured image stored in the storage medium MC (FIG. 3) of the camera 20 and the image are stored via the information acquisition unit 11. Various related information (the shooting environment information listed above and other shooting conditions including the focal length of the lens) is taken into the storage device 12 and stored.

そして、続くステップS22で、上記ステップS21にて取得される画像の撮影環境情報を確認した後、さらに続くステップS23で、この撮影環境情報(詳しくは撮影時の位置情報)に基づいて、撮影位置周辺の地図を取得する。具体的には、上記演算装置13(図1)の命令に基づき、上記情報取得部11を介して、上記サーバ30から撮影位置の周辺に相当する地図をデータとしてダウンロードする。なお、ここで取得される地図は、一部のオブジェクトだけに特別のオブジェクト、すなわちランドマークオブジェクト(例えば東京タワーや富士山等の名所)が登録(ランドマーク登録)されたものとする。ただし、地図の取得後、ユーザによって、ランドマークオブジェクトの削除・追加等が可能なものであってもよい。   In step S22, the shooting environment information of the image acquired in step S21 is confirmed. In step S23, the shooting position is determined based on the shooting environment information (specifically, position information at the time of shooting). Get a map of the surrounding area. Specifically, a map corresponding to the vicinity of the shooting position is downloaded as data from the server 30 via the information acquisition unit 11 based on a command from the arithmetic unit 13 (FIG. 1). In the map acquired here, it is assumed that a special object, that is, a landmark object (for example, a landmark such as Tokyo Tower or Mt. Fuji) is registered (landmark registration) for only some objects. However, after the map is acquired, the landmark object may be deleted or added by the user.

次いで、続くステップS24では、上記ステップS21にて取得した撮影環境情報およびレンズの焦点距離(カメラ20の画角を特定するための情報)、並びに上記ステップS23にて取得した地図に基づき、撮影画像に映っている全てのオブジェクト(ただし、被写体は除く)について、これらオブジェクトが、それぞれ上記地図に登録されているオブジェクトのいずれに相当するものであるかを同定する。   Subsequently, in the subsequent step S24, the photographed image is obtained based on the photographing environment information acquired in step S21 and the focal length of the lens (information for specifying the angle of view of the camera 20) and the map acquired in step S23. For all the objects shown in (except for the subject), it is identified which of these objects corresponds to each of the objects registered in the map.

例えば、撮影画像が、図8(a)に例示されるような撮影画像であり、撮影位置周辺の地図が、図9に例示されるような地図である場合には、まず、適宜の認識手段を用いて、オブジェクトOB1〜OB4、および、被写体であるオブジェクトOB5を検出し、画像と地図とを照らし合わせる(カメラ20の画角も加味する)ことにより、その位置関係から、被写体は除くオブジェクトOB1〜OB4が、それぞれ上記地図に登録されているオブジェクトOB1〜OB4およびOB6〜OB8のいずれに相当するものであるかを同定する(図8(a)および図9における符号(OB1〜OB4)の一致は、この同定の結果に相当する)。なお、上記オブジェクト検出時には、例えば顔認識手段(被写体有無判定手段)により、被写体となる人物の有無の確認も行われることになる。そして、上記図9中のラインRは、カメラ20の画角を示すものである。またここでは、説明の便宜上、上記カメラ20やオブジェクトOB5(被写体)を地図上に表示するようにしたが、実際には、カメラ20や被写体であるオブジェクトOB5は、地図上には示されていない。   For example, when the photographed image is a photographed image as illustrated in FIG. 8A and the map around the photographed position is a map as illustrated in FIG. Are used to detect the objects OB1 to OB4 and the object OB5 that is the subject, and collate the image with the map (including the angle of view of the camera 20), thereby removing the subject OB1 from the positional relationship. ... OB4 is identified as one of the objects OB1 to OB4 and OB6 to OB8 registered in the map, respectively (matching of symbols (OB1 to OB4) in FIG. 8A and FIG. 9) Corresponds to the result of this identification). When the object is detected, the presence / absence of a person as a subject is also confirmed by, for example, a face recognition unit (subject presence / absence determination unit). The line R in FIG. 9 indicates the angle of view of the camera 20. Here, for convenience of explanation, the camera 20 and the object OB5 (subject) are displayed on the map. However, the camera 20 and the object OB5 that is the subject are not actually shown on the map. .

また、ここでは被写体は除いてオブジェクトの同定を行うようにしたが、被写体に係る認識手段(例えば顔認識手段)の認識精度を向上させるべく、被写体についても、地図に基づいてオブジェクトの同定を行い、誤認の可能性を検証するようにしてもよい。また、こうした方法を、前述した画像補正(図4)において顔認識を行う際に採用するようにしてもよい。   Although the object is identified here except for the subject, the object is also identified based on the map for the subject in order to improve the recognition accuracy of the recognition means (for example, face recognition means) related to the subject. The possibility of misidentification may be verified. Further, such a method may be adopted when performing face recognition in the above-described image correction (FIG. 4).

また用途によっては、一部のオブジェクトだけに同定を行えば足りる場合もある。例えば、横方向だけのトリミングを想定している場合などにおいては、画像の両端(横端)に映っているもの(例えば図8(a)であれば、オブジェクトOB1およびOB4の2つ)だけについて、同定を行えば足りる。   Depending on the application, it may be sufficient to identify only some objects. For example, in the case of assuming trimming only in the horizontal direction, for example, only those appearing at both ends (horizontal ends) of the image (for example, two objects OB1 and OB4 in FIG. 8A). , Identification is enough.

また、地図上に示されていないようなオブジェクト(例えば雲や太陽)についてもこれを、オブジェクトとして認識するような認識手段を用いた場合には、地図と照らし合わせることにより、地図上のオブジェクトのいずれにも該当しない、といった同定を行うこととする。   Also, for objects that are not shown on the map (for example, clouds and sun), when using a recognition means that recognizes them as objects, the objects on the map can be compared with the map. Identification that does not correspond to any of them will be performed.

次に、ステップS25において、上記ステップS24にて同定されたオブジェクトOB1〜OB4についてそれぞれ該オブジェクトが、上記地図中の一部のオブジェクトだけが登録されたランドマークオブジェクトであるか否かを判定する。そして、続くステップS26では、このステップS25における判定結果、および被写体の有無の判定結果(ステップS24にて取得)に基づいて、トリミングの条件を設定し、さらに続くステップS27で、この条件にてトリミングを実行する。   Next, in step S25, it is determined whether each of the objects OB1 to OB4 identified in step S24 is a landmark object in which only some of the objects in the map are registered. In subsequent step S26, trimming conditions are set based on the determination result in step S25 and the determination result of the presence / absence of the subject (obtained in step S24), and further in step S27, trimming is performed under this condition. Execute.

例えば図9に例示される地図において、オブジェクトOB1がランドマークオブジェクト(ランドマーク登録されたオブジェクト)である場合には、このオブジェクトOB1とオブジェクトOB5(被写体)とを指標にして(縦・横の境界の設定をオブジェクトOB1およびOB5を参照しつつ行い)、例えば図8(a)中に一点鎖線で示されるような枠(輪郭)T1で、当該撮影画像のトリミングを実行する。図8(b)は、トリミング後の画像である。なお、ここでは、被写体となるオブジェクトOB5(人物)を中心(メインの指標)にしてランドマークオブジェクトは見切れない程度(サブの指標)になるようにトリミング条件を設定(例えば所定のテーブル等を用いて設定)している。   For example, in the map illustrated in FIG. 9, when the object OB1 is a landmark object (an object registered as a landmark), the object OB1 and the object OB5 (subject) are used as indices (vertical / horizontal boundaries). Is set with reference to the objects OB1 and OB5), and for example, the captured image is trimmed with a frame (outline) T1 as indicated by a one-dot chain line in FIG. 8A. FIG. 8B shows an image after trimming. Here, the trimming condition is set (for example, using a predetermined table or the like) so that the landmark object is invisible (sub index) with the object OB5 (person) as the subject as the center (main index). Setting).

また、このトリミング態様(トリミング条件)についても、これはあくまで一例であり、用途等に応じて任意のトリミング態様を採用することができる。例えば、ランドマークオブジェクトを中心(メインの指標)にして被写体は見切れない程度(サブの指標)になるようにトリミング条件を設定してもよい。   Further, this trimming mode (trimming condition) is merely an example, and any trimming mode can be employed depending on the application. For example, the trimming condition may be set so that the subject is invisible (sub index) with the landmark object as the center (main index).

また、例えば上記ステップS25にて、複数のランドマークオブジェクトが認定されたときに、いずれのランドマークオブジェクトをトリミングの指標とするかを選択可能にする(例えばアプリケーションソフトウェア上で、ユーザが上記入力装置16(図1)を通じて選択する)ように構成すれば、ユーザの好みに合わせてトリミングを行うことも可能になる。   Further, for example, when a plurality of landmark objects are recognized in step S25, which landmark object can be selected as an index for trimming (for example, on the application software, the user can select the input device). If it is configured such that it is selected through 16 (FIG. 1), trimming can be performed according to the user's preference.

また、例えば上記地図に複数のランドマークオブジェクトが優先順位を付けられて登録されている場合には、上記ステップS25にて複数のランドマークオブジェクトが認定されたときに、優先順位の最も高いランドマークオブジェクトを指標としてトリミングを実行するように構成することも有効である。こうすることで、優先順位に基づいて自動的に的確なトリミングが実行されることになり、ひいてはユーザの手間を極力省いた円滑な画像加工が好適に実現されることになる。   For example, when a plurality of landmark objects are registered with priority in the map, when the plurality of landmark objects are recognized in step S25, the landmark having the highest priority is registered. It is also effective to perform trimming using an object as an index. By doing so, accurate trimming is automatically executed based on the priority order, and as a result, smooth image processing that saves the user's effort as much as possible is suitably realized.

また他にも、例えばランドマークオブジェクトが画面中に含まれていない場合には、被写体を指標にする、あるいは被写体となる人物が画面中に含まれていない場合には、ランドマークオブジェクトを指標にする、さらには、ランドマークオブジェクトも、被写体となる人物も、画面中に含まれていない場合には、所定のオブジェクト(例えばステップS24にて同定されたオブジェクトで、最も画面の端に映っているもの等)を指標とする、あるいはトリミングを実行しない等々、様々なトリミング態様が考えられる。   In addition, for example, when the landmark object is not included in the screen, the subject is used as an index, or when the person who is the subject is not included in the screen, the landmark object is used as an index. In addition, when neither a landmark object nor a person as a subject is included in the screen, a predetermined object (for example, the object identified in step S24, which is most visible on the edge of the screen). Various trimming modes are conceivable, such as using an index or the like as an index or not performing trimming.

この実施の形態においては、このようにして、任意の撮影画像に対して画像加工(トリミング)が実行されることになる。
そして、これら画像補正(図4)および画像加工(図7)などの画像処理が、必要に応じて施されることにより完成した最終的な画像は、その完成後、適宜にレイアウトされ、印刷用の画像として、上記プリンタ用画像作成部P2(図2)を通じて、ビットマップ画像(ドット画像)への変換、量子化処理、CMYK変換(RGBデータからCMYKデータへの変換)などが施されることによって、上記プリンタ17にて出力(印刷)可能な画像データとされ、その後、該プリンタ17へ転送される。そして、このプリンタ17を通じて、所定の印刷用紙に印刷されることになる。
In this embodiment, image processing (trimming) is performed on an arbitrary captured image in this way.
The final image, which is completed by performing image processing such as image correction (FIG. 4) and image processing (FIG. 7) as necessary, is appropriately laid out after printing and is used for printing. The image is subjected to conversion to a bitmap image (dot image), quantization processing, CMYK conversion (conversion from RGB data to CMYK data) and the like through the printer image creation unit P2 (FIG. 2). Thus, the image data can be output (printed) by the printer 17 and then transferred to the printer 17. Then, printing is performed on a predetermined printing paper through the printer 17.

そして、この実施の形態においては、上記画像のレイアウトに際して、上記情報取得部11等を通じて取得される撮影環境情報(特に位置情報)に基づいて、例えば上記サーバ30(図1)により提供される所定の地図上の撮影位置に相当するところへ当該画像(撮影画像)をそれぞれ配置することにより、地図上に1乃至複数の画像が配置された新たな画像を作成するようにする。すなわち、この実施の形態においては、こうして新たに作成された画像が、上記プリンタ17により、出力(印刷)されることになる。   In this embodiment, the predetermined layout provided by the server 30 (FIG. 1), for example, based on the shooting environment information (particularly position information) acquired through the information acquisition unit 11 or the like when the image is laid out. By arranging the images (captured images) at locations corresponding to the shooting positions on the map, a new image in which one or more images are arranged on the map is created. That is, in this embodiment, the newly created image is output (printed) by the printer 17.

具体的には、例えば図10に示されるように、所定の日本地図を上記サーバ30からダウンロードして、異なる場所で撮影された複数の撮影画像PCTを、同地図上の撮影位置に相当するところへ、それぞれ配置することにより、同図10に示されるような、撮影画像ごとの撮影位置が一目で分かるような新たな画像を作成するようにする。ただし、これはあくまで一例であり、用途等に応じて任意の態様でレイアウトすることができる。例えば撮影画像のレイアウトに用いられる地図についても、世界地図や、日本以外の国の地図などを用いるようにしてもよい。   Specifically, as shown in FIG. 10, for example, a predetermined map of Japan is downloaded from the server 30 and a plurality of captured images PCT captured at different locations correspond to the capturing positions on the map. By arranging each of them, a new image is created so that the shooting position for each shot image can be seen at a glance, as shown in FIG. However, this is only an example, and the layout can be performed in an arbitrary manner depending on the application. For example, a map used for the layout of the captured image may be a world map or a map of a country other than Japan.

以上説明したように、この実施の形態に係る画像処理装置および撮像装置によれば、以下のような優れた効果が得られるようになる。   As described above, according to the image processing apparatus and the imaging apparatus according to this embodiment, the following excellent effects can be obtained.

(1)撮像装置(デジタルカメラ20)により撮影された画像に対して所定の画像処理を行う画像処理装置(コンピュータ10)として、撮影画像と共に、撮影時の位置情報、撮影方向、撮影時刻をはじめとする各種の撮影環境情報を取得するための情報取得手段(ここでは、上記情報取得部11および記憶装置12および演算装置13等によって実現)と、それら撮影環境情報の別に所定の画像処理が規定された画像処理テーブルTと、このテーブルTを参照して、当該撮影画像に係る撮影環境情報の内容に対応する所定の画像処理(画像補正および画像加工)を、該撮影画像に対して実行する画像処理手段(ここでは、上記演算装置13(図1)や上記画像補正加工部P1(図2)等によって実現)と、を備える構成とした。これにより、撮影時の環境(撮影環境)をより正確に把握することが可能になり、ひいては、様々な環境で撮影された画像に対して、それら環境に応じて適切な画像処理を行うことができるようになる。   (1) As an image processing apparatus (computer 10) that performs predetermined image processing on an image captured by the image capturing apparatus (digital camera 20), together with the captured image, the positional information at the time of capturing, the capturing direction, and the capturing time Predetermined image processing is defined separately from the information acquisition means (in this case, realized by the information acquisition unit 11, the storage device 12, the arithmetic unit 13, and the like) for acquiring various types of shooting environment information. Referring to this image processing table T and this table T, predetermined image processing (image correction and image processing) corresponding to the contents of the shooting environment information relating to the shot image is executed on the shot image. The image processing means (here, realized by the arithmetic device 13 (FIG. 1), the image correction processing unit P1 (FIG. 2), etc.) is provided. As a result, it becomes possible to more accurately grasp the environment (photographing environment) at the time of photographing, and as a result, appropriate image processing can be performed on images photographed in various environments according to those environments. become able to.

(2)しかも、撮影環境ごとに最適な画像処理を上記テーブルTにて予め関連付けしておいたことにより、画像処理の専門知識に乏しいユーザであれ、撮影環境に応じて最適な画像処理を容易に行うことができるようになる。   (2) Furthermore, since the optimum image processing for each shooting environment is associated in advance in the table T, it is easy for the user who lacks expertise in image processing to perform the optimum image processing according to the shooting environment. To be able to do that.

(3)上記撮影環境情報に、緯度および経度および高度、さらには撮影時におけるカメラ20の上下の向きの傾き度合、および撮影時に同カメラ20の向いていた方角を特定するための情報が含まれる構成とした。これにより、3次元的に撮影位置(高地/低地も含め、地球上のどこで撮影されたか)を特定することが可能になるとともに、また撮影方向についても、空に向いているか、あるいは地面に向いているか、なども含め、撮像レンズをどの方向に向けて撮影されたかを、正確に把握することができるようになる。   (3) The shooting environment information includes latitude, longitude, altitude, further, the degree of inclination of the camera 20 in the vertical direction at the time of shooting, and information for specifying the direction in which the camera 20 was pointed at the time of shooting. The configuration. This makes it possible to specify the shooting position (where the image was shot on the earth, including high and low altitudes) in a three-dimensional manner, and the shooting direction is also toward the sky or the ground. It is possible to accurately grasp the direction in which the imaging lens was taken, including whether the image is taken.

(4)さらに、この撮影環境情報に、温度および湿度および気圧も含まれる構成として、上記画像処理テーブルTにおいて処理を規定するために用いられる情報に、これら温度および湿度および気圧も含めるようにした(図6参照)。こうすることで、撮影環境の特定(例えば屋内/屋外の判定や、季節の特定、標高など)も、高い精度で容易に行うことができるようになる。   (4) Furthermore, as the configuration in which the shooting environment information includes temperature, humidity, and atmospheric pressure, the information used for defining the processing in the image processing table T includes these temperature, humidity, and atmospheric pressure. (See FIG. 6). By doing so, it is possible to easily specify the shooting environment (for example, indoor / outdoor determination, season specification, altitude, etc.) with high accuracy.

(5)上記画像処理テーブルTにおいては、上記撮影環境情報の内容が、撮影画像の良否を判定するための一定の基準として加味されるとともに、所定の画像処理(補正処理)が、これら基準ごとに関連付けされており、撮影画像がこのテーブルTに規定された基準を満たしているか否かに基づいて、当該画像の良否が判定され、この基準を満たさないと判定されたときには、該基準に関連付けされた上記テーブルT上の所定の画像処理が実行されることにより、当該画像(撮影画像)の補正が行われる構成とした。こうしたことで、画像の良否判定(補正すべきか否かの判定)にも、前述した撮影時の位置情報(撮影場所)や、撮影方向、撮影時刻、などの各情報(撮影環境情報)が反映されるようになり、より高い精度で適切に画像の補正が行われるようになる。   (5) In the image processing table T, the content of the shooting environment information is added as a fixed standard for determining the quality of the shot image, and predetermined image processing (correction processing) is performed for each of these standards. The image quality is determined based on whether or not the captured image satisfies the standard defined in the table T. When it is determined that the image does not satisfy the standard, the image is associated with the standard. The image (captured image) is corrected by executing predetermined image processing on the table T. As a result, the above-described position information (shooting location) at the time of shooting (shooting location), shooting direction, shooting time, and other information (shooting environment information) are also reflected in the image quality determination (determination of whether or not to correct). As a result, the image is corrected appropriately with higher accuracy.

(6)しかも、上記画像処理テーブルTにおける画像の良否を判定するための基準として、上記撮影環境情報の内容に基づいて逆光であるか否か(画像の良否)を判別するための基準を備える構成とした。これにより、逆光であるか否かの判定についてもこれを、精度よく、より正確に行うことが可能になる。   (6) In addition, as a reference for determining the quality of the image in the image processing table T, a criterion for determining whether or not the image is backlit (quality of the image) based on the contents of the shooting environment information is provided. The configuration. This makes it possible to accurately and more accurately determine whether or not the backlight is backlit.

(7)さらに、上記撮影環境情報の内容に基づいて、撮影画像の色温度およびコントラストおよびカラーバランスの良否を判別するための基準も、上記テーブルTにおける画像の良否を判定するための基準として備える構成とした。これにより、画像の色温度、コントラスト、カラーバランスなどが適正であるか否かの判定についてもこれを、精度よく、より正確に行うことが可能になる。   (7) Further, a criterion for determining whether the color temperature, contrast, and color balance of the captured image are good based on the contents of the shooting environment information is also provided as a reference for determining the quality of the image in the table T. The configuration. This makes it possible to accurately and more accurately determine whether or not the color temperature, contrast, and color balance of the image are appropriate.

(8)上記画像処理テーブルTにおいては、上記撮影環境情報の内容が、所定のシーン(場面)ごとに分類されるとともに、シーンごとに最適な画像処理が、該分類されたシーンごとに関連付けされており、上記撮影環境情報の内容に基づいて、処理対象となる撮影画像が上記シーンのいずれに該当するかが判別されるとともに、該判別されたシーンに関連付けされた上記テーブルT上の所定の画像処理が実行されることにより、当該画像の補正が行われる構成とした。こうすることで、当該画像の補正が適切に且つ的確に行われるようになる。しかも、このときのシーン判別に、前述した撮影時の位置情報(撮影場所)や、撮影方向、撮影時刻、などの各情報を用いるようにしたことで、多種多様なシーンを正確に判別することができるようになり、ひいては、これら各シーンについて、それぞれ高い精度で適切な画像補正が実行されるようになる。   (8) In the image processing table T, the contents of the shooting environment information are classified for each predetermined scene (scene), and the optimum image processing for each scene is associated with each classified scene. Based on the content of the shooting environment information, it is determined which of the scenes the captured image to be processed corresponds to, and a predetermined value on the table T associated with the determined scene. The image is corrected by executing the image processing. By doing so, the correction of the image is appropriately and accurately performed. In addition, the scene information at this time can be accurately discriminated from a variety of scenes by using the information such as the position information (shooting location) at the time of shooting, the shooting direction, and the shooting time. As a result, appropriate image correction is executed with high accuracy for each of these scenes.

(9)さらに、上記画像処理テーブルTに規定されたシーンの分類にあたっては、画像のタイプを、被写体のみ、風景のみ、被写体および風景、の3つのカテゴリのいずれに該当するかによって分類するようにした。こうすることで、画像補正をはじめとする画像処理の種類等を決定する上で特に重要になる被写体の有無も加味して、上記シーンごとに最適な画像処理を関連付けすることができるようになる。   (9) Further, in classifying the scenes defined in the image processing table T, the image type is classified according to one of the three categories of the subject only, the landscape only, the subject and the landscape. did. This makes it possible to associate optimum image processing for each scene, taking into account the presence or absence of a subject that is particularly important in determining the type of image processing including image correction. .

(10)また、上記画像処理テーブルTに規定されたシーンの分類にあたっては、季節、および天候、および1日における時間帯、および撮影場所によっても、分類するようにした。これらも、画像処理(画像補正)の種類や度合いを決める上で特に重要なパラメータであり、このような構成にすることで、これらの重要なパラメータも加味して、上記シーンごとに最適な画像処理を関連付けすることができるようになる。   (10) The scenes defined in the image processing table T are classified according to the season, weather, time zone in one day, and shooting location. These are also particularly important parameters for determining the type and degree of image processing (image correction). By adopting such a configuration, these important parameters are taken into account, and the optimum image for each scene. Processes can be associated.

(11)さらに、上記撮影環境情報(特に位置情報)を参照して撮影位置周辺の地図を取得する地図取得手段(ここでは、上記情報取得部11および記憶装置12および演算装置13等によって実現)と、該地図取得手段により取得される地図、および上記撮影環境情報の内容、並びにカメラ20の画角に基づき、撮影画像に映っているオブジェクト(例えば図8(a)におけるオブジェクトOB1〜OB5)の全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、上記地図に登録されているオブジェクト(例えば図9におけるオブジェクトOB1〜OB4およびOB6〜OB8)のいずれに相当するものであるかを同定するオブジェクト同定手段と、該オブジェクト同定手段により同定されたオブジェクトの全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、上記地図中の一部のオブジェクトだけが登録されるランドマークオブジェクトであるか否かを判定するランドマーク判定手段と、該ランドマーク判定手段により認定されたランドマークオブジェクト(例えば図9におけるオブジェクトOB1)を指標として、あるいは、上記オブジェクト同定手段により同定されたオブジェクトの全部、もしくは一部の、所定のオブジェクトを指標として、上記撮影画像に対してトリミングを実行するトリミング実行手段と、を備える構成とした(なおここでは、上記オブジェクト同定手段やトリミング実行手段を、上記演算装置13(図1)や上記画像補正加工部P1(図2)等によって実現している)。これにより、画像中のオブジェクトもしくはランドマークオブジェクトを指標とするトリミング(輪郭の設定)を実行することができるようになり、ひいては、不要な部分が的確に切り落とされた画像(好ましい構図の画像)が容易に得られるようになる。   (11) Further, map acquisition means for acquiring a map around the shooting position with reference to the shooting environment information (especially position information) (in this case, realized by the information acquisition unit 11, the storage device 12, the arithmetic device 13, etc.) And the map acquired by the map acquisition means, the content of the shooting environment information, and the angle of view of the camera 20 (for example, objects OB1 to OB5 in FIG. 8A) of the shot image. For all or a part of predetermined objects, it is identified which of the objects (for example, objects OB1 to OB4 and OB6 to OB8 in FIG. 9) registered in the map corresponds to the object. Object identification means, and all of the objects identified by the object identification means, Alternatively, for some predetermined objects, landmark determination means for determining whether the object is a landmark object in which only some of the objects in the map are registered, and the landmark determination means With respect to the captured image, using the landmark object (for example, the object OB1 in FIG. 9) certified by the above as an index, or all or a part of the objects identified by the object identification means as an index. (In this case, the object identification unit and the trimming execution unit include the arithmetic unit 13 (FIG. 1), the image correction processing unit P1 (FIG. 2), etc.) Is realized). As a result, trimming (outline setting) using an object or landmark object in the image as an index can be executed, and as a result, an image (an image having a preferable composition) in which unnecessary portions are accurately cut off can be obtained. It can be easily obtained.

(12)また、上記ステップS25にて、複数のランドマークオブジェクトが認定されたときに、いずれのランドマークオブジェクトをトリミングの指標とするかを選択可能にするように構成すれば、ユーザの好みに合わせてトリミングを行うことも可能になる。   (12) Further, when a plurality of landmark objects are recognized in step S25, it is possible to select which landmark object is to be used as a trimming index. It is also possible to perform trimming.

(13)また、上記地図に複数のランドマークオブジェクトが優先順位を付けられて登録されている場合において、上記ステップS25にて複数のランドマークオブジェクトが認定されたときに、優先順位の最も高いランドマークオブジェクトを指標としてトリミングを実行するように構成すれば、優先順位に基づいて自動的に的確なトリミングが実行されることになり、ひいてはユーザの手間を極力省いた円滑な画像加工が好適に実現されることになる。   (13) Further, when a plurality of landmark objects are registered with priority in the map, when a plurality of landmark objects are recognized in step S25, the land with the highest priority is registered. If trimming is performed using the mark object as an index, accurate trimming is automatically performed based on the priority order, and smooth image processing with minimal user effort is achieved. Will be.

(14)撮影画像に被写体となる人物が映っているか否かを判定する被写体有無判定手段(顔認識手段)をさらに設けて、該被写体有無判定手段により被写体となる人物が映っていると判定されたときには、この被写体となる人物も併せ指標としてトリミングを実行する構成とした。こうすることで、被写体となる人物が不要な部分として誤って切り落とされるようなことは、好適に防止されるようになる。   (14) Subject presence / absence determination means (face recognition means) for determining whether or not a person as a subject appears in the photographed image is further provided, and it is determined by the subject presence / absence determination means that a person as a subject is reflected. In this case, trimming is performed using the person who is the subject as an index. By doing so, it is possible to suitably prevent the person as the subject from being accidentally cut off as an unnecessary part.

(15)画像のレイアウトに際して、上記情報取得部11等を通じて取得される撮影環境情報(特に位置情報)に基づいて、例えば上記サーバ30(図1)により提供される所定の地図上の撮影位置に相当するところへ当該画像(撮影画像)をそれぞれ配置することにより、地図上に1乃至複数の画像が配置された新たな画像を作成するようにした。これにより、例えば旅行中にいろいろな場所でたくさんの画像を撮影した場合であれ、撮影画像ごとの撮影位置が一目で分かるような新たな画像が作成されることになる。   (15) At the time of image layout, based on the shooting environment information (particularly position information) acquired through the information acquisition unit 11 or the like, for example, the shooting position on the predetermined map provided by the server 30 (FIG. 1) A new image in which one or a plurality of images are arranged on a map is created by arranging the images (photographed images) in corresponding places. Thereby, for example, even when many images are taken at various places during a trip, a new image is created so that the shooting position for each shot image can be seen at a glance.

(16)他方、撮影画像を撮像して適宜の記憶装置(記憶媒体MC)に保存する撮像装置(デジタルカメラ20)として、撮影時の位置情報を検出する位置情報検出部25aと、撮影時刻を検出する撮影時刻検出部25bと、撮影方向に係る情報を検出する撮影方向検出部25cと、温度(気温)および湿度および圧力(気圧)を検出する温度検出部25dおよび圧力検出部25eおよび湿度検出部25fと、をさらに備え、撮影時には、これら各部によりそれぞれ検出される各情報を上記記憶装置(記憶媒体MC)に格納する構成とした。こうした撮像装置を、上記画像処理装置(コンピュータ10)と組み合わせて用いたことで、上述の画像処理システム(図1)についてもこれが、より容易且つ的確に実現することができるようになる。   (16) On the other hand, as an imaging device (digital camera 20) that captures captured images and stores them in an appropriate storage device (storage medium MC), a position information detection unit 25a that detects position information at the time of shooting, and a shooting time An imaging time detection unit 25b to detect, an imaging direction detection unit 25c to detect information related to the imaging direction, a temperature detection unit 25d to detect temperature (air temperature), humidity, and pressure (atmospheric pressure), a pressure detection unit 25e, and humidity detection 25f, and at the time of shooting, each piece of information detected by each unit is stored in the storage device (storage medium MC). By using such an imaging apparatus in combination with the image processing apparatus (computer 10), this can be realized more easily and accurately in the above-described image processing system (FIG. 1).

なお、上記実施の形態は、以下のように変更して実施してもよい。   The embodiment described above may be modified as follows.

・上記オブジェクト同定手段により同定されたオブジェクトの全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、注目ポイントの設定されたオブジェクトであるか否かを判定する手段(注目ポイント判定手段)と、該注目ポイント判定手段により注目ポイントが設定されていると判定されたオブジェクトがあるときには、少なくともその1つを指標として、上記デジタルカメラ20により撮影された画像に対してトリミングを実行する手段(トリミング実行手段)と、をさらに備える構成としてもよい。なお、これらの手段は、例えば上記演算装置13(図1)や上記画像補正加工部P1(図2)等によって実現することができる。また、上記注目ポイントは、上記地図中のオブジェクトの一部、例えば建物について特別注目すべき看板やエンブレム等の撮影ポイントなどとして設定されるものである。   A means (attention point determination means) for determining whether or not the object identified by the object identification means is an object for which a point of interest has been set, for all or a part of the predetermined objects. When there is an object for which the point of interest is determined to be set by the point of interest determination means, means for performing trimming on the image photographed by the digital camera 20 (trimming) using at least one of them as an index (Execution means). These means can be realized by, for example, the arithmetic device 13 (FIG. 1), the image correction processing unit P1 (FIG. 2), and the like. The attention point is set as a part of an object in the map, for example, a shooting point such as a signboard or emblem that should be particularly noted for a building.

以下、図11を参照しつつ、撮影画像が、図11(a)に例示されるような画像であって、図中のエンブレムEMがオブジェクトOB4の注目ポイント(地図に登録された特に注目すべき部分)である場合について説明する。なお、この図11(a)は、先の図8(a)に対応するものであるため、同図8(a)における要素と同一の要素については、各々同一の符号を付して示し、便宜上、その説明を割愛する。   Hereinafter, referring to FIG. 11, the captured image is an image as illustrated in FIG. 11A, and the emblem EM in the figure is an attention point of the object OB <b> 4 (particular attention should be given to the map registered in the map). (Part)) will be described. 11A corresponds to the previous FIG. 8A, the same elements as those in FIG. 8A are denoted by the same reference numerals, For convenience, the explanation is omitted.

すなわちこの場合は、例えばエンブレムEM(注目ポイント)を指標にして、例えば注目ポイントが中心になるように(すなわち図11(a)中に一点鎖線で示されるような枠(輪郭)T2で)、当該撮影画像のトリミングを実行する。こうすることで、画像処理の専門知識に乏しいユーザであれ、容易に注目ポイントを中心にした構図の画像が得られるようになる。図11(b)は、トリミング後の画像である。   That is, in this case, for example, using the emblem EM (attention point) as an index, for example, so that the attention point is at the center (that is, with a frame (contour) T2 as indicated by a one-dot chain line in FIG. 11A), Trimming of the captured image is executed. By doing so, even a user who lacks expertise in image processing can easily obtain an image with a composition centered on the point of interest. FIG. 11B shows an image after trimming.

・上記実施の形態では、撮影画像の良否判定に基づく画像補正(ステップS13およびS14)を行うようにしたが、これは必須ではなく、適宜に割愛することができる。また逆に、シーン判別による画像補正(ステップS15およびS16)を割愛して、上記撮影画像の良否判定に基づく画像補正だけを実施するようにしてもよい。   In the above embodiment, image correction (steps S13 and S14) based on the quality determination of the captured image is performed, but this is not essential and can be omitted as appropriate. Conversely, image correction based on scene determination (steps S15 and S16) may be omitted, and only image correction based on the quality determination of the captured image may be performed.

・上記実施の形態では、上記情報取得部11および記憶装置12および演算装置13等によって、上記情報取得手段を実現するようにした。すなわち、当該画像処理装置(コンピュータ10)が、適宜の通信回線等を通じて(もしくは無線通信で)、上記カメラ20とデータのやり取り(データ通信)を行うようなシステムを想定した。しかし、この情報取得手段は、こうした構成に限定されることはなく、任意のものを採用することができる。例えば、当該画像処理装置(コンピュータ10)に対して、適宜の記憶媒体(例えば記憶媒体MC)の抜き差し(着脱)を可能にするスロットを設け、この記憶媒体を介して、上記カメラ20から撮影画像や各種の撮影環境情報を受け取る(取得する)ように構成してもよい。要は、必要な情報を取得することができる構成であれば足りる。   In the above embodiment, the information acquisition unit is realized by the information acquisition unit 11, the storage device 12, the arithmetic device 13, and the like. That is, a system is assumed in which the image processing apparatus (computer 10) exchanges data (data communication) with the camera 20 through an appropriate communication line or the like (or wireless communication). However, this information acquisition means is not limited to such a configuration, and an arbitrary one can be adopted. For example, the image processing apparatus (computer 10) is provided with a slot that allows an appropriate storage medium (for example, the storage medium MC) to be inserted / removed (attached / detached), and the captured image is taken from the camera 20 via the storage medium. Alternatively, it may be configured to receive (acquire) various shooting environment information. In short, any configuration that can acquire necessary information is sufficient.

・上記各種の撮影環境情報は、用途に応じて適宜に割愛したり追加したりすることができる。要は、目的の達成に必要な情報さえ得られればそれで足りる。すなわち、用途さえ限定(もしくは制限)すれば、これら各情報の情報量は、少なくて済むようになる。具体的には、例えば空や地面を撮影しない(上記カメラ20は、所定の三脚などを用いた水平方向の撮影のみに使用する)ということであれば、該カメラ20の撮影時における上下の向きの傾き度合については、これを用いる必要がなくなるため、上記撮影方向に係る情報は、撮影時に同カメラ20の向いていた方角を特定するための情報だけを含んでいれば足りるようになる。   The above various shooting environment information can be omitted or added as appropriate according to the application. In short, it is sufficient if you have the information you need to achieve your goals. That is, as long as the usage is limited (or limited), the amount of information of each piece of information can be reduced. Specifically, for example, when the sky or the ground is not photographed (the camera 20 is used only for photographing in the horizontal direction using a predetermined tripod or the like), the up and down direction at the time of photographing with the camera 20 is used. Since there is no need to use this, the information relating to the shooting direction need only include information for specifying the direction in which the camera 20 is facing at the time of shooting.

・上記各実施の形態では、プリンタ17のドライバソフトウェア(プリンタドライバ)の一部として、上記画像補正加工部P1を用意するようにしたが、この画像補正加工部P1の具備態様および使用態様は任意である。例えば、この画像補正加工部P1を、上記モニタ18のドライバソフトウェアの一部として設けるようにすれば、同モニタ18の画面出力に画像補正等を施すこともできるようになる。また、ドライバソフトウェアには関係なく、別途、任意の画像に対して画像補正や画像加工を施すものとして、同画像補正加工部P1を、例えば上記記憶装置12に記憶させるようにしてもよい。さらに、これらのパターンを任意に組み合わせるようにしてもよい。   In each of the above embodiments, the image correction processing unit P1 is prepared as part of the driver software (printer driver) for the printer 17, but the image correction processing unit P1 is provided in any manner and usage. It is. For example, if the image correction processing unit P1 is provided as part of the driver software of the monitor 18, image correction or the like can be performed on the screen output of the monitor 18. Further, the image correction processing unit P1 may be stored in, for example, the storage device 12 as a unit that performs image correction or image processing on an arbitrary image independently of the driver software. Furthermore, these patterns may be arbitrarily combined.

・上記デジタルカメラ20についてはこれを、撮影場所が屋内か屋外かを判定する手段をさらに備える構成とすることもできる。例えば、屋内では電波が届かないGPSなどを上記位置情報検出部25aとして用いる場合には、位置情報を検出することができなかったところを屋内であると判定することができる。   -About the said digital camera 20, this can also be set as the structure further provided with the means to determine whether an imaging | photography place is indoor or outdoor. For example, when a GPS or the like that does not receive radio waves indoors is used as the position information detection unit 25a, it is possible to determine that the position information cannot be detected indoors.

・上記デジタルカメラ20における各検出部の検出態様は、上記態様に限定されることなく、用途等に応じて任意の態様を採用することができる。例えば上記位置情報検出部25aによる撮影位置の検出は、前後の撮影ポイントから推測するようにしてもよい。また、この位置情報検出部25aとしては、上記GPSの他にも、例えばPHS等に搭載されている各地の基地局を利用したものや、無線LANを利用したものなどを採用することができる。   -The detection aspect of each detection part in the said digital camera 20 is not limited to the said aspect, Arbitrary aspects can be employ | adopted according to a use etc. For example, the detection of the shooting position by the position information detection unit 25a may be estimated from the preceding and following shooting points. As the position information detection unit 25a, in addition to the GPS, for example, a device using base stations in various places installed in the PHS, a device using a wireless LAN, or the like can be used.

・上記撮影場所が屋内か屋外かの判定結果などをはじめとする任意の情報が、撮影画像に関連付けされた状態で、例えばExif形式のファイルとして上記記憶媒体MCに格納される構成であってもよい。例えば、任意の撮影条件(例えば被写体の有無など)を、撮影時にユーザ自身が記録しておくことも考えられる。   Arbitrary information including the result of determining whether the shooting location is indoor or outdoor is stored in the storage medium MC as, for example, an Exif format file in a state associated with the shot image. Good. For example, it is conceivable that the user himself / herself records arbitrary shooting conditions (for example, the presence or absence of a subject) at the time of shooting.

・このように、デジタルカメラ20の採り得る構成は多種多様であり、このカメラ20の構成に対応して、上記コンピュータ10の構成も様々な構成を採ることが可能である。すなわち、上記コンピュータ10の構成は、上記カメラ20の構成に応じて、適宜に変更することができる。   As described above, there are a wide variety of configurations that the digital camera 20 can take, and the configuration of the computer 10 can also take various configurations corresponding to the configuration of the camera 20. That is, the configuration of the computer 10 can be changed as appropriate according to the configuration of the camera 20.

・また、上記画像処理装置(コンピュータ10)を、任意の撮像装置(例えば上記デジタルカメラ20やカメラ付き携帯電話など)に搭載する(例えば撮像装置本体に一体的に内蔵する)ようにしてもよい。   Further, the image processing apparatus (computer 10) may be mounted on an arbitrary imaging apparatus (for example, the digital camera 20 or a mobile phone with a camera) (for example, integrated in the imaging apparatus main body). .

この発明に係る画像処理装置および撮像装置の一実施の形態について、同実施の形態に係る画像処理装置および撮像装置を含めた画像処理システムの概要(概略構成)を模式的に示すブロック図。The block diagram which shows typically the outline | summary (schematic structure) of the image processing system containing the image processing apparatus and imaging device which concern on the embodiment about the image processing apparatus and imaging device which concern on this invention. 同システムにおいて用いられるプリンタドライバのプログラム構成を示すブロック図。FIG. 2 is a block diagram showing a program configuration of a printer driver used in the system. 同実施の形態に係る撮像装置の概略構成を模式的に示すブロック図。FIG. 2 is a block diagram schematically showing a schematic configuration of the imaging apparatus according to the embodiment. 上記システムにより実行される画像処理(画像補正)の一例について、その主な処理手順を示すフローチャート。The flowchart which shows the main process sequence about an example of the image process (image correction) performed by the said system. 画像の良否判定に用いられるテーブルの一例を示す図表。The chart which shows an example of the table used for the quality determination of an image. シーン判別に用いられるテーブルの一例を示す図表。The chart which shows an example of the table used for scene discrimination | determination. 上記システムにより実行される画像処理(トリミング)の一例について、その主な処理手順を示すフローチャート。The flowchart which shows the main process sequence about an example of the image process (trimming) performed by the said system. (a)および(b)は、トリミングの一態様を示す模式図。(A) And (b) is a schematic diagram which shows the one aspect | mode of trimming. 撮影位置周辺の地図の一例を示す模式図。The schematic diagram which shows an example of the map around an imaging | photography position. 画像のレイアウトに用いられる地図の一例を示す模式図。The schematic diagram which shows an example of the map used for the layout of an image. (a)および(b)は、トリミングの変形例(別態様)を示す模式図。(A) And (b) is a schematic diagram which shows the modification (another aspect) of trimming.

符号の説明Explanation of symbols

10…コンピュータ、11…情報取得部、12…記憶装置、13…演算装置、14…プリンタ駆動回路、15…モニタ駆動回路、16…入力装置、17…カラープリンタ、18…モニタ、20…デジタルカメラ、21…撮像素子、22…制御部、23…撮像信号処理回路、24…画像圧縮回路、25a…位置情報検出部、25b…撮影時刻検出部、25c…撮影方向検出部、25d…温度検出部、25e…圧力検出部、25f…湿度検出部、30…サーバ(データベース)、DP…ディスプレイ、EM…エンブレム、MC…記憶媒体、OP…操作部、OB1〜OB8…オブジェクト、P1…画像補正加工部、P2…プリンタ用画像作成部、PCT…撮影画像、T…画像処理テーブル。   DESCRIPTION OF SYMBOLS 10 ... Computer, 11 ... Information acquisition part, 12 ... Memory | storage device, 13 ... Arithmetic unit, 14 ... Printer drive circuit, 15 ... Monitor drive circuit, 16 ... Input device, 17 ... Color printer, 18 ... Monitor, 20 ... Digital camera , 21 ... imaging device, 22 ... control unit, 23 ... imaging signal processing circuit, 24 ... image compression circuit, 25a ... position information detection unit, 25b ... shooting time detection unit, 25c ... shooting direction detection unit, 25d ... temperature detection unit , 25e ... pressure detection unit, 25f ... humidity detection unit, 30 ... server (database), DP ... display, EM ... emblem, MC ... storage medium, OP ... operation unit, OB1 to OB8 ... object, P1 ... image correction processing unit , P2 ... printer image creation unit, PCT ... taken image, T ... image processing table.

Claims (17)

撮像装置により撮影された画像に対して所定の画像処理を行う画像処理装置において、
前記撮像装置により撮影された画像、および該画像が撮影された時の位置情報、および該画像が撮影された時の撮影方向に係る情報、および該画像が撮影された時の撮影時刻、を取得するための情報取得手段と、
前記情報取得手段により取得される各情報の内容の別に所定の処理が、前記画像に対する画像処理として規定されたテーブルと、
前記テーブルを参照して、前記情報取得手段により取得される各情報の内容に対応する1乃至複数の所定の画像処理を、前記画像に対して実行可能とする画像処理手段と、
を備える
ことを特徴とする画像処理装置。
In an image processing apparatus that performs predetermined image processing on an image captured by an imaging apparatus,
Acquires an image captured by the imaging device, position information when the image is captured, information on a capturing direction when the image is captured, and a capture time when the image is captured. Information acquisition means for
A table in which a predetermined process for each content acquired by the information acquisition unit is defined as an image process for the image;
An image processing unit that refers to the table and that can execute one or more predetermined image processing corresponding to the content of each piece of information acquired by the information acquisition unit on the image;
An image processing apparatus comprising:
前記位置情報は、緯度および経度および高度を含み、前記撮影方向に係る情報は、撮影時における前記撮像装置の上下の向きの傾き度合、および撮影時に前記撮像装置の向いていた方角を特定するための情報を含む
請求項1に記載の画像処理装置。
The position information includes latitude, longitude, and altitude, and the information relating to the shooting direction is for specifying the degree of inclination of the up-and-down direction of the imaging device at the time of shooting and the direction in which the imaging device was turned at the time of shooting. The image processing apparatus according to claim 1, comprising:
前記情報取得手段は、前記各情報に加えてさらに、温度および湿度および気圧も取得し、前記テーブルにおいて処理を規定するために用いられる情報には、これら温度および湿度および気圧も含まれる
請求項1または2に記載の画像処理装置。
2. The information acquisition unit further acquires temperature, humidity, and atmospheric pressure in addition to the information, and the information used for defining the processing in the table includes the temperature, humidity, and atmospheric pressure. Or the image processing apparatus of 2.
前記テーブルにおいては、前記情報取得手段により取得される各情報の内容が、前記画像の良否を判定するための一定の基準として加味されるとともに、前記所定の画像処理が、前記基準ごとに関連付けされており、
前記画像処理手段は、該テーブルを参照して、前記画像が同テーブルに規定された前記基準を満たしているか否かに基づいて、当該画像の良否を判定し、前記基準を満たさないと判定されたときには、該基準に関連付けされた前記テーブル上の所定の画像処理を実行することにより、当該画像の補正を行う
請求項1〜3のいずれか一項に記載の画像処理装置。
In the table, the content of each piece of information acquired by the information acquisition unit is added as a constant reference for determining the quality of the image, and the predetermined image processing is associated with each reference. And
The image processing means determines whether the image is acceptable or not based on whether or not the image satisfies the standard defined in the table with reference to the table and determines that the image does not satisfy the standard. The image processing apparatus according to claim 1, wherein the image is corrected by executing predetermined image processing on the table associated with the reference.
前記画像の良否を判定するための基準として、前記情報取得手段により取得される各情報の内容に基づいて逆光であるか否かを判別するための基準を備える
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, further comprising: a reference for determining whether the image is backlit based on the content of each piece of information acquired by the information acquisition unit as a reference for determining whether the image is good or bad. .
前記画像の良否を判定するための基準として、前記情報取得手段により取得される各情報の内容に基づいて、前記画像の色温度およびコントラストおよびカラーバランスの少なくとも1つが適正であるか否かを判別するための基準を備える
請求項4または5に記載の画像処理装置。
As a criterion for determining the quality of the image, it is determined whether at least one of the color temperature, the contrast, and the color balance of the image is appropriate based on the content of each information acquired by the information acquisition unit The image processing apparatus according to claim 4, further comprising a reference for performing the operation.
前記テーブルにおいては、前記情報取得手段により取得される各情報の内容が、所定のシーンごとに分類されるとともに、前記所定の画像処理が、該分類されたシーンごとに関連付けされており、
前記画像処理手段は、前記情報取得手段により取得される各情報の内容に基づいて、当該画像が前記シーンのいずれに該当するかを判別するとともに、該判別されたシーンに関連付けされた前記テーブル上の所定の画像処理を実行することにより、当該画像の補正を行う
請求項1〜6のいずれか一項に記載の画像処理装置。
In the table, the contents of each information acquired by the information acquisition means are classified for each predetermined scene, and the predetermined image processing is associated with each classified scene,
The image processing means determines which of the scenes the image corresponds to based on the content of each information acquired by the information acquisition means, and on the table associated with the determined scene. The image processing apparatus according to claim 1, wherein the image is corrected by executing the predetermined image processing.
前記テーブルに規定されたシーンは、少なくとも前記画像のタイプが、被写体のみ、風景のみ、被写体および風景、の3つのカテゴリのいずれに該当するかによって分類されている
請求項7に記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the scenes defined in the table are classified according to at least one of the three categories of the image type: the subject only, the landscape only, the subject and the landscape. .
前記テーブルに規定されたシーンは、季節、および天候、および1日における時間帯、および撮影場所、の少なくとも1つによって分類されている
請求項7または8に記載の画像処理装置。
The image processing apparatus according to claim 7 or 8, wherein the scenes defined in the table are classified by at least one of a season, a weather, a time zone in a day, and a shooting location.
撮像装置により撮影された画像に対して所定の画像処理を行う画像処理装置において、
前記撮像装置により撮影された画像、および該画像が撮影された時の位置情報、および該画像が撮影された時の撮影方向に係る情報、および該画像が撮影された時の撮影時刻、および前記撮像装置の画角を特定するための情報、を取得するための情報取得手段と、
前記位置情報を参照して撮影位置周辺の地図を取得する地図取得手段と、
該地図取得手段により取得される地図、および前記情報取得手段により取得される各情報の内容、並びに前記撮像装置の画角に基づき、前記撮像装置により撮影された画像に映っているオブジェクトの全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、前記地図に登録されているオブジェクトのいずれに相当するものであるかを同定するオブジェクト同定手段と、
該オブジェクト同定手段により同定されたオブジェクトの全部、もしくは一部の、所定のオブジェクトを指標として、前記撮像装置により撮影された画像に対してトリミングを実行するトリミング実行手段と、
を備える
ことを特徴とする画像処理装置。
In an image processing apparatus that performs predetermined image processing on an image captured by an imaging apparatus,
The image taken by the imaging device, the position information when the image was taken, the information about the shooting direction when the image was taken, the shooting time when the image was taken, and the Information acquisition means for acquiring information for specifying the angle of view of the imaging device;
Map acquisition means for acquiring a map around the shooting position with reference to the position information;
Based on the map acquired by the map acquisition means, the contents of each information acquired by the information acquisition means, and the angle of view of the imaging device, all of the objects shown in the image taken by the imaging device, Alternatively, for some predetermined objects, object identification means for identifying which of the objects registered in the map the object corresponds to,
Trimming executing means for performing trimming on an image photographed by the imaging device, using a predetermined object as an index for all or a part of the objects identified by the object identifying means;
An image processing apparatus comprising:
撮像装置により撮影された画像に対して所定の画像処理を行う画像処理装置において、
前記撮像装置により撮影された画像、および該画像が撮影された時の位置情報、および該画像が撮影された時の撮影方向に係る情報、および該画像が撮影された時の撮影時刻、および前記撮像装置の画角を特定するための情報、を取得するための情報取得手段と、
前記位置情報を参照して撮影位置周辺の地図を取得する地図取得手段と、
該地図取得手段により取得される地図、および前記情報取得手段により取得される各情報の内容、並びに前記撮像装置の画角に基づき、前記撮像装置により撮影された画像に映っているオブジェクトの全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、前記地図に登録されているオブジェクトのいずれに相当するものであるかを同定するオブジェクト同定手段と、
該オブジェクト同定手段により同定されたオブジェクトの全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、前記地図中の一部のオブジェクトだけが登録されるランドマークオブジェクトであるか否かを判定するランドマーク判定手段と、
該ランドマーク判定手段により認定されたランドマークオブジェクトを指標として、前記撮像装置により撮影された画像に対してトリミングを実行するトリミング実行手段と、
を備える
ことを特徴とする画像処理装置。
In an image processing apparatus that performs predetermined image processing on an image captured by an imaging apparatus,
The image taken by the imaging device, the position information when the image was taken, the information about the shooting direction when the image was taken, the shooting time when the image was taken, and the Information acquisition means for acquiring information for specifying the angle of view of the imaging device;
Map acquisition means for acquiring a map around the shooting position with reference to the position information;
Based on the map acquired by the map acquisition means, the contents of each information acquired by the information acquisition means, and the angle of view of the imaging device, all of the objects shown in the image taken by the imaging device, Alternatively, for some predetermined objects, object identification means for identifying which of the objects registered in the map the object corresponds to,
For all or some of the objects identified by the object identification means, it is determined whether or not the object is a landmark object in which only some objects in the map are registered. Landmark determination means;
Trimming execution means for performing trimming on an image photographed by the imaging device, using the landmark object recognized by the landmark determination means as an index;
An image processing apparatus comprising:
前記地図取得手段により取得される地図には、複数のランドマークオブジェクトが登録されており、前記トリミング実行手段は、前記ランドマーク判定手段により複数のランドマークオブジェクトが認定されたとき、いずれのランドマークオブジェクトを前記トリミングの指標とするかを選択可能にする
請求項11に記載の画像処理装置。
A plurality of landmark objects are registered in the map acquired by the map acquisition means, and the trimming execution means determines which landmark object when the landmark determination means recognizes the plurality of landmark objects. The image processing apparatus according to claim 11, wherein an object can be selected as an index for trimming.
前記地図取得手段により取得される地図には、複数のランドマークオブジェクトが優先順位を付けられて登録されており、前記トリミング実行手段は、前記ランドマーク判定手段により複数のランドマークオブジェクトが認定されたとき、前記優先順位の最も高いランドマークオブジェクトを指標として前記トリミングを実行する
請求項11に記載の画像処理装置。
In the map acquired by the map acquisition unit, a plurality of landmark objects are registered with priorities, and the trimming execution unit recognizes the plurality of landmark objects by the landmark determination unit. The image processing apparatus according to claim 11, wherein the trimming is performed using the landmark object having the highest priority as an index.
撮像装置により撮影された画像に対して所定の画像処理を行う画像処理装置において、
前記撮像装置により撮影された画像、および該画像が撮影された時の位置情報、および該画像が撮影された時の撮影方向に係る情報、および該画像が撮影された時の撮影時刻、および前記撮像装置の画角を特定するための情報、を取得するための情報取得手段と、
前記位置情報を参照して撮影位置周辺の地図を取得する地図取得手段と、
該地図取得手段により取得される地図、および前記情報取得手段により取得される各情報の内容、並びに前記撮像装置の画角に基づき、前記撮像装置により撮影された画像に映っているオブジェクトの全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、前記地図に登録されているオブジェクトのいずれに相当するものであるかを同定するオブジェクト同定手段と、
該オブジェクト同定手段により同定されたオブジェクトの全部、もしくは一部の、所定のオブジェクトについて、該オブジェクトが、前記地図中のオブジェクトの一部として設定された注目ポイントの設定されたオブジェクトであるか否かを判定する注目ポイント判定手段と、
該注目ポイント判定手段により注目ポイントが設定されていると判定されたオブジェクトがあるときには、少なくともその1つを指標として、前記撮像装置により撮影された画像に対してトリミングを実行するトリミング実行手段と、
を備える
ことを特徴とする画像処理装置。
In an image processing apparatus that performs predetermined image processing on an image captured by an imaging apparatus,
The image taken by the imaging device, the position information when the image was taken, the information about the shooting direction when the image was taken, the shooting time when the image was taken, and the Information acquisition means for acquiring information for specifying the angle of view of the imaging device;
Map acquisition means for acquiring a map around the shooting position with reference to the position information;
Based on the map acquired by the map acquisition means, the contents of each information acquired by the information acquisition means, and the angle of view of the imaging device, all of the objects shown in the image taken by the imaging device, Alternatively, for some predetermined objects, object identification means for identifying which of the objects registered in the map the object corresponds to,
Whether all or a part of the objects identified by the object identification means is an object with a point of interest set as a part of the object in the map. Attention point determination means for determining
Trimming execution means for performing trimming on an image photographed by the imaging device, using at least one of the objects as an index when there is an object for which the attention point is determined by the attention point determination means;
An image processing apparatus comprising:
前記撮像装置により撮影された画像に被写体となる人物が映っているか否かを判定する被写体有無判定手段をさらに備え、
該被写体有無判定手段により被写体となる人物が映っていると判定されたときには、前記トリミング実行手段は、この被写体となる人物も併せ指標として前記トリミングを実行する
請求項9〜14のいずれか一項に記載の画像処理装置。
A subject presence / absence determining unit that determines whether or not a person as a subject is reflected in an image captured by the imaging device;
15. When the subject presence / absence determination unit determines that a person as a subject is reflected, the trimming execution unit executes the trimming using the person as a subject as an index as well. An image processing apparatus according to 1.
前記情報取得手段により取得される位置情報に基づいて、所定の地図上の撮影位置に相当するところへ撮影画像をそれぞれ配置することにより、地図上に1乃至複数の画像が配置された新たな画像を作成する
請求項1〜15のいずれか一項に記載の画像処理装置。
A new image in which one or a plurality of images are arranged on the map by arranging the photographed images at positions corresponding to the photographing positions on a predetermined map based on the position information acquired by the information acquisition means. The image processing apparatus according to any one of claims 1 to 15.
撮影画像を撮像して適宜の記憶装置に保存する撮像装置において、
撮影時の位置情報を検出する位置情報検出手段と、撮影時刻を検出する撮影時刻検出手段と、撮影方向に係る情報を検出する撮影方向検出手段と、をさらに備え、
撮影時には、前記位置情報検出手段および前記撮影時刻検出手段および撮影方向検出手段によりそれぞれ検出される前記位置情報および前記撮影時刻および前記撮影方向に係る情報を前記記憶装置に格納する
ことを特徴とする撮像装置。
In an imaging device that captures a captured image and stores it in an appropriate storage device,
A position information detecting means for detecting position information at the time of shooting; a shooting time detecting means for detecting the shooting time; and a shooting direction detecting means for detecting information related to the shooting direction;
At the time of shooting, the position information, the shooting time detection unit, and the shooting direction detection unit, which are detected by the position information detection unit, the shooting time detection unit, and the shooting direction detection unit, respectively, are stored in the storage device. Imaging device.
JP2006062563A 2006-03-08 2006-03-08 Image processing unit and imaging apparatus Pending JP2007243551A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006062563A JP2007243551A (en) 2006-03-08 2006-03-08 Image processing unit and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006062563A JP2007243551A (en) 2006-03-08 2006-03-08 Image processing unit and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2007243551A true JP2007243551A (en) 2007-09-20

Family

ID=38588646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006062563A Pending JP2007243551A (en) 2006-03-08 2006-03-08 Image processing unit and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2007243551A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088903A (en) * 2007-09-28 2009-04-23 Kyocera Corp Mobile communication device
JP2009171411A (en) * 2008-01-18 2009-07-30 Fujifilm Corp Imaging apparatus
US7881604B2 (en) 2007-12-05 2011-02-01 Seiko Epson Corporation Image recording device, image managing system, and image recording control program
JP2012120060A (en) * 2010-12-02 2012-06-21 Nec Access Technica Ltd Wireless communication device, wireless communication control method, and control program therefor
JP2012191427A (en) * 2011-03-10 2012-10-04 Nec Saitama Ltd Imaging apparatus and control method of the same
JP2012227702A (en) * 2011-04-19 2012-11-15 Konica Minolta Business Technologies Inc Image forming apparatus, processing method of image forming apparatus and program for image forming apparatus
JP2013526215A (en) * 2010-04-29 2013-06-20 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Digital camera system that detects indoor / outdoor scenes using GPS
JPWO2018003937A1 (en) * 2016-06-30 2019-05-23 アイキューブド研究所株式会社 Video signal processing apparatus, video signal processing method, and program
CN113676662A (en) * 2021-08-13 2021-11-19 Oppo广东移动通信有限公司 Picture processing method, mobile terminal, control device and storage medium
CN115866381A (en) * 2022-11-25 2023-03-28 北京深睿博联科技有限责任公司 Monitoring device for wearing orthokeratology mirror

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088903A (en) * 2007-09-28 2009-04-23 Kyocera Corp Mobile communication device
US7881604B2 (en) 2007-12-05 2011-02-01 Seiko Epson Corporation Image recording device, image managing system, and image recording control program
JP2009171411A (en) * 2008-01-18 2009-07-30 Fujifilm Corp Imaging apparatus
JP2013526215A (en) * 2010-04-29 2013-06-20 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Digital camera system that detects indoor / outdoor scenes using GPS
JP2012120060A (en) * 2010-12-02 2012-06-21 Nec Access Technica Ltd Wireless communication device, wireless communication control method, and control program therefor
JP2012191427A (en) * 2011-03-10 2012-10-04 Nec Saitama Ltd Imaging apparatus and control method of the same
JP2012227702A (en) * 2011-04-19 2012-11-15 Konica Minolta Business Technologies Inc Image forming apparatus, processing method of image forming apparatus and program for image forming apparatus
JPWO2018003937A1 (en) * 2016-06-30 2019-05-23 アイキューブド研究所株式会社 Video signal processing apparatus, video signal processing method, and program
CN113676662A (en) * 2021-08-13 2021-11-19 Oppo广东移动通信有限公司 Picture processing method, mobile terminal, control device and storage medium
CN115866381A (en) * 2022-11-25 2023-03-28 北京深睿博联科技有限责任公司 Monitoring device for wearing orthokeratology mirror

Similar Documents

Publication Publication Date Title
JP2007243551A (en) Image processing unit and imaging apparatus
US7929796B2 (en) Image processing system and method, and terminal and server used for the same
US9225855B2 (en) Imaging apparatus, imaging system, and control method for increasing accuracy when determining an imaging scene based on input image data and information stored in an external information processing apparatus
US8094963B2 (en) Imaging system, imaging condition setting method, terminal and server used for the same
US20160224870A1 (en) Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
US8773566B2 (en) Photographing condition setting apparatus, photographing condition setting method, and photographing condition setting program
JP4549352B2 (en) Image processing apparatus and method, and image processing program
US10070112B2 (en) Image processing device, imaging device, image processing method, program, and recording medium
US20040145602A1 (en) Organizing and displaying photographs based on time
US20120224787A1 (en) Systems and methods for image capturing
JP4775029B2 (en) Determination of shooting scene
JP2001238177A (en) Image processing method and image processing apparatus
JP2012195679A (en) Image recording apparatus, image recording method and program
US20120008004A1 (en) Lighting identification
JP2002077805A (en) Camera with photographing memo function
US7603032B2 (en) Image capturing apparatus and image capturing method that instructs a user to capture an image before an image is captured based on a necessary image type
JP2010191775A (en) Image processing device, electronic equipment, program, and image processing method
JP5054339B2 (en) Image classification apparatus and method, and program
JP2007214781A (en) Image trimming device, image trimming method, and program thereof
JP2007316892A (en) Method, apparatus and program for automatic trimming
JP2006109175A (en) Method and device for processing image and computer program
CN116528064A (en) Unmanned aerial vehicle image mosaic method, system, equipment and storage medium
JP5736715B2 (en) Imaging device
JP2008017188A (en) Camera
JP2007148864A (en) Information retrieval system and lighting equipment