JP5962810B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5962810B2
JP5962810B2 JP2015083977A JP2015083977A JP5962810B2 JP 5962810 B2 JP5962810 B2 JP 5962810B2 JP 2015083977 A JP2015083977 A JP 2015083977A JP 2015083977 A JP2015083977 A JP 2015083977A JP 5962810 B2 JP5962810 B2 JP 5962810B2
Authority
JP
Japan
Prior art keywords
distance
region
subject
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015083977A
Other languages
Japanese (ja)
Other versions
JP2015173457A (en
Inventor
井上 英也
英也 井上
博久 太平
博久 太平
浩司 山垣
浩司 山垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015083977A priority Critical patent/JP5962810B2/en
Publication of JP2015173457A publication Critical patent/JP2015173457A/en
Application granted granted Critical
Publication of JP5962810B2 publication Critical patent/JP5962810B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

立体画像表示装置では、観視者の左右の眼に視差のある画像を与えることにより、遠近感のある画像を観視者に見せている。   In the stereoscopic image display device, an image with a parallax is given to the viewer's left and right eyes to show the viewer a perspective image.

特許文献1 特開平6−324620号公報   Japanese Patent Application Laid-Open No. 6-324620

ところで、立体画像表示装置において、外部から入力した画像に対して更に遠近感を強調したり弱めたりする処理を行ってから画像を表示することは行われていなかった。   By the way, in a stereoscopic image display device, an image is not displayed after performing processing for further enhancing or weakening perspective on an image input from the outside.

上記課題を解決するために、本発明の第1の態様においては、撮像画像の撮像時においてカメラにより測定された各領域における被写体距離を表す距離情報を取得する距離情報取得部と、撮像画像に含まれる距離情報を用いずに、撮像画像の各領域における被写体距離を検出する検出部と、撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する画像処理部と、を備え、画像処理部は、距離情報取得部が取得した距離が予め定められた距離より遠いとされた領域については検出部により検出された被写体距離に応じて当該領域における画像の距離感を変更し、距離情報取得部が取得した距離が予め定められた距離より遠いとされていない領域については距離情報取得部により取得された距離に応じて当該領域の画像の距離感を変更する画像処理装置、並びに、画像処理方法およびプログラムを提供する。 In order to solve the above-described problem, in the first aspect of the present invention, a distance information acquisition unit that acquires distance information representing a subject distance in each region measured by a camera at the time of capturing a captured image, and a captured image Without using the included distance information, a detection unit that detects a subject distance in each region of the captured image and a sense of distance of the image in the region are changed according to the subject distance detected for each region of the captured image. An image processing unit, and the image processing unit, for an area where the distance acquired by the distance information acquisition unit is longer than a predetermined distance, according to the subject distance detected by the detection unit The distance obtained by the distance information acquisition unit is changed according to the distance acquired by the distance information acquisition unit for an area where the distance acquired by the distance information acquisition unit is not longer than a predetermined distance. The image processing apparatus for changing the sense of distance range of the image, as well as to provide an image processing method, and a program.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.

本実施形態に係る画像処理装置10の構成を示す。1 shows a configuration of an image processing apparatus 10 according to the present embodiment. 本実施形態に係る画像処理装置10により画像処理がされる前の元の撮像画像の一例を示す。An example of the original captured image before image processing is performed by the image processing apparatus 10 according to the present embodiment is shown. 本実施形態に係る画像処理装置10により画像処理がされた後の撮像画像の一例を示す。An example of the captured image after image processing is performed by the image processing apparatus 10 according to the present embodiment is shown. 本実施形態に係る検出部14の構成の一例を示す。An example of a structure of the detection part 14 which concerns on this embodiment is shown. 本実施形態の変形例に係る画像処理装置10の構成を示す。The structure of the image processing apparatus 10 which concerns on the modification of this embodiment is shown. 本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。2 shows an exemplary hardware configuration of a computer 1900 according to the present embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る画像処理装置10の構成を示す。画像処理装置10は、カメラにより撮像された撮像画像に対して画像処理を施す。画像処理装置10は、一例として、表示装置の画像入力段に備えられる。また、画像処理装置10は、カメラの画像出力段に設けられてもよい。   FIG. 1 shows a configuration of an image processing apparatus 10 according to the present embodiment. The image processing apparatus 10 performs image processing on a captured image captured by a camera. As an example, the image processing apparatus 10 is provided in an image input stage of a display device. Further, the image processing apparatus 10 may be provided in the image output stage of the camera.

画像処理装置10は、入力部12と、検出部14と、距離情報取得部16と、画像処理部18と、出力部20とを備える。入力部12は、カメラにより撮像された撮像画像を入力する。入力部12は、一例として、記録媒体に格納された撮像画像を読み出してもよいし、放送局等から送信された撮像画像を復調してもよい。   The image processing apparatus 10 includes an input unit 12, a detection unit 14, a distance information acquisition unit 16, an image processing unit 18, and an output unit 20. The input unit 12 inputs a captured image captured by the camera. As an example, the input unit 12 may read a captured image stored in a recording medium, or may demodulate a captured image transmitted from a broadcasting station or the like.

検出部14は、撮像画像の各領域における被写体距離を検出する。被写体距離とは、撮像時におけるカメラから被写体までの距離を示す。   The detection unit 14 detects the subject distance in each region of the captured image. The subject distance indicates the distance from the camera to the subject at the time of imaging.

検出部14は、一例として、撮像画像における各領域の青成分の割合に応じて当該領域における被写体距離を算出する。例えば風景を撮像した場合における被写体距離が遠い被写体は、カメラから当該被写体までの間の空気の層の影響により、本来の被写体の色よりも青成分の割合が多くなって映る。従って、検出部14は、撮像画像内の各領域に含まれている青成分の割合に応じて当該領域における被写体距離を推定することができる。   For example, the detection unit 14 calculates the subject distance in the region according to the ratio of the blue component of each region in the captured image. For example, a subject with a long subject distance when a landscape is imaged appears with a greater proportion of the blue component than the original subject color due to the influence of the air layer from the camera to the subject. Therefore, the detection unit 14 can estimate the subject distance in the region according to the ratio of the blue component included in each region in the captured image.

検出部14は、一例として、撮像画像における各領域のそれぞれの平均色を算出し、算出した平均色の色彩を解析して当該平均色が含んでいる青成分の割合を算出する。そして、検出部14は、一例として、それぞれの領域について、青成分の割合が多いほど被写体距離が遠いと判断して、当該領域の被写体距離を推定する処理を行う。   For example, the detection unit 14 calculates the average color of each region in the captured image, analyzes the calculated average color, and calculates the ratio of the blue component included in the average color. For example, the detection unit 14 determines that the subject distance is farther as the ratio of the blue component is larger for each region, and performs a process of estimating the subject distance of the region.

また、検出部14は、撮像画像に表示された被写体の輪郭の空間周波数に応じて、当該被写体の被写体距離を算出してもよい。例えば風景を撮像した場合における被写体距離が遠い被写体は、カメラから当該被写体までの間の空気の層の影響により、ボケが大きくなる。従って、検出部14は、撮像画像内の各領域に含まれている被写体の輪郭の空間周波数に応じて当該領域における被写体距離を推定することができる。   The detection unit 14 may calculate the subject distance of the subject according to the spatial frequency of the contour of the subject displayed in the captured image. For example, a subject with a long subject distance when a landscape is imaged is greatly blurred due to an air layer between the camera and the subject. Therefore, the detection unit 14 can estimate the subject distance in the region according to the spatial frequency of the contour of the subject included in each region in the captured image.

検出部14は、一例として、撮像画像における各領域のそれぞれの被写体のエッジ部分を抽出し、抽出したエッジの空間周波数を算出する。そして、検出部14は、一例として、それぞれの領域について、空間周波数が低いほど被写体距離が遠いと判断して、当該領域の被写体距離を推定する処理を行う。   As an example, the detection unit 14 extracts the edge portion of each subject in each region in the captured image, and calculates the spatial frequency of the extracted edge. For example, the detection unit 14 determines that the subject distance is farther as the spatial frequency is lower for each region, and performs a process of estimating the subject distance of the region.

距離情報取得部16は、撮像画像の撮像時においてカメラにより測定された各領域における被写体距離を表す距離情報を取得する。距離情報取得部16は、一例として、デプスマップと呼ばれる、カメラから画面内の被写体の表面までの距離を表す2次元情報を取得する。   The distance information acquisition unit 16 acquires distance information representing the subject distance in each region measured by the camera when the captured image is captured. As an example, the distance information acquisition unit 16 acquires two-dimensional information called a depth map that represents a distance from the camera to the surface of the subject in the screen.

画像処理部18は、撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する。   The image processing unit 18 changes the sense of distance of the image of the region according to the subject distance detected for each region of the captured image.

画像処理部18は、一例として、検出部14が撮像画像の各領域に対して検出した被写体距離に応じて各領域の青成分の割合を変更することにより、当該領域の画像の距離感を変更する。例えば、画像処理部18は、撮像画像の各領域について、検出した被写体距離に応じた量の青成分を増加させる。   As an example, the image processing unit 18 changes the sense of distance of the image of the region by changing the ratio of the blue component of each region according to the subject distance detected by the detection unit 14 for each region of the captured image. To do. For example, the image processing unit 18 increases the amount of blue component corresponding to the detected subject distance for each region of the captured image.

より具体的には、画像処理部18は、被写体距離の基準値を予め設定しておき、検出した被写体距離が基準値より大きい領域に含まれる青成分の割合を大きくしてもよい。例えば、画像処理部18は、1km、10kmという2つの基準値を設定する。そして、画像処理部18は、被写体距離が1kmから10kmまでの領域について青成分の割合を20%増加し、10km以上の領域について青成分の割合を40%増加する、といったように青成分の割合を増加する。   More specifically, the image processing unit 18 may set a reference value for the subject distance in advance and increase the ratio of the blue component included in the region where the detected subject distance is larger than the reference value. For example, the image processing unit 18 sets two reference values of 1 km and 10 km. Then, the image processing unit 18 increases the ratio of the blue component by increasing the ratio of the blue component by 20% for the region where the subject distance is 1 km to 10 km, and increasing the ratio of the blue component by 40% for the region of 10 km or more. Increase.

また、画像処理部18は、一例として、検出部14が撮像画像の各領域に対して検出した被写体距離に応じて各領域をぼかすことにより、当該領域の画像の距離感を変更する。例えば、画像処理部18は、撮像画像の各領域について、検出した被写体距離に応じたぼけ量で画像をぼかす。   Further, as an example, the image processing unit 18 blurs each region according to the subject distance detected by the detection unit 14 for each region of the captured image, thereby changing the sense of distance of the image in the region. For example, the image processing unit 18 blurs the image with a blur amount corresponding to the detected subject distance for each region of the captured image.

より具体的には、画像処理部18は、被写体距離の基準値を予め設定しておき、検出した被写体距離が基準値より大きい領域の画像をぼかしてもよい。例えば、画像処理部18は、1km、10kmという2つの基準値を設定する。そして、画像処理部18は、被写体距離が1kmから10kmまでの領域について、第1のぼかし度合いで画像をぼかし、10km以上の領域について、第1のぼかし度合いより大きな第2のぼかし度合いで画像をぼかす、といったように画像をぼかす。   More specifically, the image processing unit 18 may set a subject distance reference value in advance, and blur an image in a region where the detected subject distance is larger than the reference value. For example, the image processing unit 18 sets two reference values of 1 km and 10 km. Then, the image processing unit 18 blurs the image with the first blurring degree for the region where the subject distance is 1 km to 10 km, and the image with the second blurring degree larger than the first blurring degree for the region with the distance of 10 km or more. Blur the image, such as blurring.

このような処理を行うことにより、画像処理部18は、被写体距離が短い領域と被写体距離が遠い領域との距離感の差を大きくすることができる。これにより、画像処理部18は、撮像画像の遠近感を強調することができる。   By performing such processing, the image processing unit 18 can increase the difference in sense of distance between a region with a short subject distance and a region with a long subject distance. Thereby, the image processing unit 18 can emphasize the perspective of the captured image.

また、さらに、画像処理部18は、距離情報取得部16により取得された距離情報を更に用いて、撮像画像の各領域の画像の距離感を変更してもよい。例えば、画像処理部18は、距離情報取得部16が取得した距離が予め定められた距離より遠いとされた領域については、検出部14により検出された被写体距離に応じて当該領域における画像の距離感を変更する。例えば、画像処理部18は、距離情報取得部16が無限遠と検出した領域については、検出部14により検出された被写体距離に応じて当該領域における画像の距離感を変更する。   Further, the image processing unit 18 may further change the sense of distance of each region of the captured image by further using the distance information acquired by the distance information acquisition unit 16. For example, for an area in which the distance acquired by the distance information acquisition unit 16 is longer than a predetermined distance, the image processing unit 18 determines the distance of the image in the area according to the subject distance detected by the detection unit 14. Change the feeling. For example, for the region detected by the distance information acquisition unit 16 as infinity, the image processing unit 18 changes the sense of distance of the image in the region according to the subject distance detected by the detection unit 14.

そして、画像処理部18は、距離情報取得部16が取得した被写体距離が予め定められた距離より遠いとされていない領域については、距離情報取得部16により取得された被写体距離に応じて当該領域の画像の距離感を変更する。例えば、画像処理部18は、距離情報取得部16が無限遠ではない距離を検出している領域については、距離情報取得部16により検出された被写体距離に応じて当該領域における画像の距離感を変更する。これにより、画像処理部18は、より広い範囲の被写体距離に基づいて画像の距離感を変更して、遠近感をより強調することができる。   Then, the image processing unit 18, for an area where the subject distance acquired by the distance information acquisition unit 16 is not longer than a predetermined distance, according to the subject distance acquired by the distance information acquisition unit 16. Change the sense of distance of the image. For example, for the region where the distance information acquisition unit 16 detects a distance that is not infinity, the image processing unit 18 gives a sense of distance of the image in the region according to the subject distance detected by the distance information acquisition unit 16. change. As a result, the image processing unit 18 can change the sense of distance of the image based on a wider range of the subject distance, and can further enhance the sense of perspective.

出力部20は、画像処理部18により画像処理がされた撮像画像を外部へと出力する。出力部20は、例えば当該画像処理装置10が表示装置に備えられている場合であれば、遠近感を強調した撮像画像をモニタに出力する。また、出力部20は、例えば画像処理装置10がカメラに備えられている場合であれば、遠近感を強調した撮像画像を記憶媒体に記憶させる。   The output unit 20 outputs the captured image subjected to the image processing by the image processing unit 18 to the outside. For example, when the image processing apparatus 10 is provided in a display device, the output unit 20 outputs a captured image in which the perspective is emphasized to the monitor. Further, for example, when the image processing apparatus 10 is provided in a camera, the output unit 20 stores a captured image in which a sense of perspective is emphasized in a storage medium.

図2は、本実施形態に係る画像処理装置10により画像処理がされる前の元の撮像画像の一例を示す。図3は、本実施形態に係る画像処理装置10により画像処理がされた後の撮像画像の一例を示す。   FIG. 2 shows an example of an original captured image before image processing is performed by the image processing apparatus 10 according to the present embodiment. FIG. 3 shows an example of a captured image after image processing is performed by the image processing apparatus 10 according to the present embodiment.

図2および図3に示される撮像画像には、例えば、人物(近景)、家(中景)、山(遠景)および空(超遠景)が含まれている。また、図3において、×印は青成分の割合を増加させた領域を示す。   The captured images shown in FIGS. 2 and 3 include, for example, a person (near view), a house (middle view), a mountain (distant view), and a sky (very distant view). Further, in FIG. 3, a cross indicates a region where the ratio of the blue component is increased.

画像処理装置10は、一例として、図2に示した画像に含まれる、例えば山(遠景)および空(超遠景)に対して、青成分の割合を増加させる。さらに、画像処理装置10は、山(遠景)の領域よりも、被写体距離が遠い空(超遠景)の領域に対して、より大きく青成分の割合を増加させる。   As an example, the image processing apparatus 10 increases the ratio of the blue component with respect to, for example, a mountain (distant view) and a sky (super distant view) included in the image illustrated in FIG. Furthermore, the image processing apparatus 10 increases the ratio of the blue component more greatly in the sky (super far view) area where the subject distance is farther than in the mountain (distant view) area.

また、画像処理装置10は、青成分の割合を増加させることに加えてまたはに代えて、山(遠景)および空(超遠景)をボケさせてもよい。この場合も、画像処理装置10は、山(遠景)の領域よりも、被写体距離が遠い空(超遠景)の領域に対して、より大きなボケ量で画像をボケさせる。   Further, in addition to or instead of increasing the ratio of the blue component, the image processing apparatus 10 may blur the mountain (far view) and the sky (super far view). Also in this case, the image processing apparatus 10 blurs the image with a larger blur amount in the sky (super far view) area where the subject distance is farther than in the mountain (distant view) area.

このような、画像処理装置10は、撮像画像における被写体距離が近い領域と遠い領域との距離差をより大きく感じさせることができる。これにより、画像処理装置10によれば、カメラにより撮像された撮像画像内の被写体の輪郭および構図を変化させずに、撮像画像における遠近感を強調することができる。   Such an image processing apparatus 10 can make the difference in distance between a region with a close subject distance and a region with a long distance in a captured image feel larger. Thereby, according to the image processing apparatus 10, it is possible to emphasize the perspective in the captured image without changing the contour and composition of the subject in the captured image captured by the camera.

図4は、本実施形態に係る検出部14の構成の一例を示す。検出部14は、一例として、図4に示されるように、判別部22と、青成分検出部24と、青成分記憶部26と、算出部28とを有する。   FIG. 4 shows an example of the configuration of the detection unit 14 according to the present embodiment. For example, as illustrated in FIG. 4, the detection unit 14 includes a determination unit 22, a blue component detection unit 24, a blue component storage unit 26, and a calculation unit 28.

判別部22は、撮像画像における各領域の被写体の種類を判別する。判別部22は、一例として、予め登録された画像パターンと撮像画像に含まれている被写体とを比較して、撮像画像に含まれている被写体の種類が何であるかを判別する。   The determination unit 22 determines the type of subject in each region in the captured image. As an example, the determination unit 22 compares an image pattern registered in advance with a subject included in the captured image to determine what type of subject is included in the captured image.

青成分検出部24は、撮像画像における各領域の青成分の割合を検出する。青成分検出部24は、一例として、それぞれの領域について、当該領域の平均色を算出し、算出した平均色の色彩を解析して当該平均色が含んでいる青成分の割合を算出する。   The blue component detection unit 24 detects the ratio of the blue component of each region in the captured image. As an example, the blue component detection unit 24 calculates the average color of each region for each region, analyzes the calculated color of the average color, and calculates the ratio of the blue component included in the average color.

青成分記憶部26は、被写体の種類毎に画像に含まれるべき青成分の割合を記憶する。青成分記憶部26は、一例として、判別部22が検出できる被写体の種類のそれぞれについて、当該種類の被写体の表面の色が本来含んでいる青成分の割合を記憶する。青成分記憶部26は、一例として、ユーザ等により予め登録された値を記憶する。   The blue component storage unit 26 stores the proportion of the blue component that should be included in the image for each type of subject. As an example, the blue component storage unit 26 stores, for each of the types of subjects that can be detected by the determination unit 22, the ratio of the blue component originally included in the surface color of the subject of that type. As an example, the blue component storage unit 26 stores a value registered in advance by a user or the like.

算出部28は、撮像画像における各領域について、判別部22により判別された種類の被写体の青成分の割合を、青成分記憶部26から読み出す。続いて、算出部28は、青成分記憶部26に記憶された被写体毎の青成分の割合のうち判別部22により判別された種類の被写体の青成分の割合と、青成分検出部24により検出された青成分の割合との差を算出する。そして、算出部28は、算出した差に基づき、当該領域における被写体距離を算出する。   The calculation unit 28 reads, from the blue component storage unit 26, the ratio of the blue component of the type of subject determined by the determination unit 22 for each region in the captured image. Subsequently, the calculation unit 28 detects the ratio of the blue component of the type of subject determined by the determination unit 22 out of the ratio of the blue component for each subject stored in the blue component storage unit 26 and the blue component detection unit 24. The difference from the ratio of the blue component is calculated. Then, the calculation unit 28 calculates the subject distance in the area based on the calculated difference.

例えば、算出部28は、青成分検出部24により検出された青成分の割合から、青成分記憶部26に記憶された被写体毎の青成分の割合を減じた差が、基準値以上であるか否かを算出する。そして、算出部28は、差が基準値より小さい場合、被写体距離が基準距離以下であると判断する。また、算出部28は、算出した差が基準値以上の場合、被写体距離が基準距離以上であると判断する。   For example, the calculation unit 28 determines whether the difference obtained by subtracting the ratio of the blue component for each subject stored in the blue component storage unit 26 from the ratio of the blue component detected by the blue component detection unit 24 is greater than or equal to the reference value. Calculate whether or not. Then, when the difference is smaller than the reference value, the calculation unit 28 determines that the subject distance is equal to or less than the reference distance. Further, the calculation unit 28 determines that the subject distance is equal to or greater than the reference distance when the calculated difference is equal to or greater than the reference value.

このような検出部14によれば、予め登録された種類の被写体が撮像画像に含まれる場合、正確に被写体距離を検出することができる。   According to such a detection unit 14, when a pre-registered type of subject is included in the captured image, the subject distance can be accurately detected.

図5は、本実施形態の変形例に係る画像処理装置10の構成を示す。本変形例に係る画像処理装置10は、図1に示された画像処理装置10と略同一の構成および機能を採るので、図1に示した部材と略同一の構成および機能の部材に同一の符号を付け、以下相違点を除き説明を省略する。   FIG. 5 shows a configuration of an image processing apparatus 10 according to a modification of the present embodiment. The image processing apparatus 10 according to the present modification employs substantially the same configuration and function as the image processing apparatus 10 illustrated in FIG. 1, and is therefore the same as the member having substantially the same configuration and function as those illustrated in FIG. 1. A reference numeral is attached, and the description will be omitted except for differences.

本変形例に係る画像処理装置10は、位置情報取得部32と、気象条件取得部34とを更に備える。位置情報取得部32は、撮像画像を撮像した位置を表わす位置情報を取得する。例えばGPS(Global Positioning System)受信機を備えるカメラは、撮像位置を示す位置情報を付加した撮像画像を出力することができる。位置情報取得部32は、このようなカメラから出力された撮像画像に含まれる位置情報を取得する。   The image processing apparatus 10 according to this modification further includes a position information acquisition unit 32 and a weather condition acquisition unit 34. The position information acquisition unit 32 acquires position information indicating the position where the captured image is captured. For example, a camera including a GPS (Global Positioning System) receiver can output a captured image to which position information indicating an imaging position is added. The position information acquisition unit 32 acquires position information included in the captured image output from such a camera.

気象条件取得部34は、撮像画像の撮像日時および位置情報取得部32により取得された位置情報に基づき、撮像画像の撮像時における気象条件を取得する。例えばカメラは、撮像日時を付加した撮像画像を出力することができる。位置情報取得部32は、このようなカメラから出力された撮像画像に含まれる撮像日時を取得する。そして、気象条件取得部34は、取得した撮像日時における、位置情報取得部32により取得された位置情報に示された土地の気象条件を、例えばネットワークを介して取得する。   The weather condition acquisition unit 34 acquires the weather conditions at the time of imaging of the captured image based on the imaging date and time of the captured image and the position information acquired by the position information acquisition unit 32. For example, the camera can output a captured image with the imaging date and time added. The position information acquisition unit 32 acquires the imaging date and time included in the captured image output from such a camera. And the weather condition acquisition part 34 acquires the weather condition of the land shown by the positional information acquired by the positional information acquisition part 32 in the acquired imaging date, for example via a network.

本変形例に係る検出部14は、気象条件取得部34により取得された気象条件に応じて撮像画像の各領域における被写体距離を検出する。例えば、撮像画像の撮像時における気象条件が"晴れ"の場合、空気が澄んでいるので、被写体距離が遠い被写体の輪郭が鮮明に撮像される。反対に、撮像画像の撮像時における気象条件が"雨"等の場合、空気が淀んでいるので、被写体距離が遠い被写体の輪郭は不鮮明に撮像される。そこで、検出部14は、一例として、被写体の輪郭の空間周波数に基づく被写体距離の推定処理において、同一の空間周波数であっても、気象条件が"晴れ"の場合には気象条件が"雨"等の場合よりも、被写体距離を短く推定する。   The detection unit 14 according to this modification detects the subject distance in each region of the captured image in accordance with the weather condition acquired by the weather condition acquisition unit 34. For example, when the weather condition at the time of capturing a captured image is “clear”, the air is clear, so that the contour of a subject with a long subject distance is clearly captured. On the other hand, when the weather condition at the time of capturing the captured image is “rain” or the like, the air is stagnant, so that the contour of the subject with a long subject distance is imaged unclearly. Therefore, as an example, in the subject distance estimation process based on the spatial frequency of the contour of the subject, the detection unit 14 sets the weather condition to “rain” when the weather condition is “clear” even when the spatial frequency is the same. The subject distance is estimated to be shorter than in the case of the above.

また、本変形例に係る検出部14は、取得された気象条件に加えてまたは気象条件に代えて、位置情報取得部32により取得された位置情報に応じて撮像画像の各領域における被写体距離を検出してもよい。例えば、撮像画像の撮像場所によって空気が澄んでいる場所と淀んでいる場所がある。空気が澄んでいる場所(例えば都会以外)では被写体距離が遠い被写体の輪郭が鮮明に撮像される。反対に、空気が淀んでいる場所(例えば都会)、被写体距離が遠い被写体の輪郭は不鮮明に撮像される。そこで、検出部14は、一例として、被写体の輪郭の空間周波数に基づく被写体距離の推定処理において、同一の空間周波数であっても、空気が澄んでいる撮影場所(例えば都会以外)の場合には、空気が淀んでいる撮影場所(例えば都会)の場合よりも、被写体距離を短く推定する。   In addition to the acquired weather condition or instead of the weather condition, the detection unit 14 according to the present modification calculates the subject distance in each region of the captured image according to the position information acquired by the position information acquisition unit 32. It may be detected. For example, there is a place where the air is clear and a place where it is stagnant depending on the location where the captured image is captured. In a place where the air is clear (for example, outside the city), the outline of a subject with a long subject distance is clearly imaged. On the contrary, the place where the air is stagnant (for example, the city) and the outline of the subject with a long subject distance are imaged unclearly. Therefore, as an example, in the subject distance estimation process based on the spatial frequency of the contour of the subject, the detection unit 14 is in the case of a shooting place (for example, other than a city) where the air is clear even at the same spatial frequency. The subject distance is estimated to be shorter than that in a shooting place where the air is stagnant (for example, a city).

以上のより、本変形例に係る画像処理装置10は、より正確に被写体距離を検出して、撮像画像における遠近感を正確に強調することができる。   As described above, the image processing apparatus 10 according to the present modification can detect the subject distance more accurately and accurately emphasize the perspective in the captured image.

また、本変形例に係る検出部14は、同一被写体に対してピント距離の異なる設定により撮像された複数の撮像画像に基づき、複数の撮像画像の各領域における被写体距離を検出してもよい。この場合、検出部14は、一例として、複数の撮像画像のそれぞれについて、画面内においてピントが合っている領域を検出する。そして、検出部14は、複数の撮像画像のそれぞれのピント距離から、画面内においてピントがあっている領域の被写体距離を推定する。これにより、検出部14は、例えば、撮像画像に距離情報が含まれていないような場合であっても、デプスマップと同様の距離情報を生成することができる。   Further, the detection unit 14 according to the present modification may detect the subject distance in each region of the plurality of captured images based on a plurality of captured images captured with different settings of the focus distance with respect to the same subject. In this case, for example, the detection unit 14 detects a focused area in the screen for each of the plurality of captured images. Then, the detection unit 14 estimates the subject distance of the focused area in the screen from the focus distances of the plurality of captured images. Thereby, the detection part 14 can produce | generate the distance information similar to a depth map, for example even if it is a case where distance information is not contained in a captured image.

また、本変形例に係る検出部14は、絞りの異なる設定により撮像された複数の撮像画像に基づき、複数の撮像画像の各領域における被写体距離を検出してもよい。この場合、複数の撮像画像における画面内におけるピントが合っている範囲は、絞りを開けている状態から絞りを絞った状態に遷移するに従って、順次に広がっていく。そこで、検出部14は、一例として、複数の撮像画像のそれぞれについて、画面内においてピントが合っている範囲を比較して、画面内における各領域の被写体距離を推定する。これにより、検出部14は、例えば、撮像画像に距離情報が含まれていないような場合であっても、デプスマップと同様の距離情報を生成することができる。   In addition, the detection unit 14 according to this modification may detect the subject distance in each region of the plurality of captured images based on the plurality of captured images captured with different settings of the aperture. In this case, the range where the plurality of captured images are focused on the screen gradually expands as the aperture changes from the open state to the closed state. Therefore, as an example, the detection unit 14 estimates the subject distance of each region in the screen by comparing the range in focus on the screen for each of the plurality of captured images. Thereby, the detection part 14 can produce | generate the distance information similar to a depth map, for example even if it is a case where distance information is not contained in a captured image.

図6は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。   FIG. 6 shows an example of a hardware configuration of a computer 1900 according to this embodiment. A computer 1900 according to this embodiment is connected to a CPU peripheral unit having a CPU 2000, a RAM 2020, a graphic controller 2075, and a display device 2080 that are connected to each other by a host controller 2082, and to the host controller 2082 by an input / output controller 2084. Input / output unit having communication interface 2030, hard disk drive 2040, and CD-ROM drive 2060, and legacy input / output unit having ROM 2010, flexible disk drive 2050, and input / output chip 2070 connected to input / output controller 2084 With.

ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate. The CPU 2000 operates based on programs stored in the ROM 2010 and the RAM 2020 and controls each unit. The graphic controller 2075 acquires image data generated by the CPU 2000 or the like on a frame buffer provided in the RAM 2020 and displays it on the display device 2080. Instead of this, the graphic controller 2075 may include a frame buffer for storing image data generated by the CPU 2000 or the like.

入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。   The input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the CD-ROM drive 2060, which are relatively high-speed input / output devices. The communication interface 2030 communicates with other devices via a network. The hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900. The CD-ROM drive 2060 reads a program or data from the CD-ROM 2095 and provides it to the hard disk drive 2040 via the RAM 2020.

また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。   The input / output controller 2084 is connected to the ROM 2010, the flexible disk drive 2050, and the relatively low-speed input / output device of the input / output chip 2070. The ROM 2010 stores a boot program that the computer 1900 executes at startup and / or a program that depends on the hardware of the computer 1900. The flexible disk drive 2050 reads a program or data from the flexible disk 2090 and provides it to the hard disk drive 2040 via the RAM 2020. The input / output chip 2070 connects the flexible disk drive 2050 to the input / output controller 2084 and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.

RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。   A program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as the flexible disk 2090, the CD-ROM 2095, or an IC card and provided by the user. The program is read from the recording medium, installed in the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed by the CPU 2000.

コンピュータ1900にインストールされ、コンピュータ1900を画像処理装置10として機能させるプログラムは、入力モジュールと、検出モジュールと、距離情報取得モジュールと、画像処理モジュールと、出力モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、入力部12、検出部14、距離情報取得部16、画像処理部18および出力部20としてそれぞれ機能させる。   A program that is installed in the computer 1900 and causes the computer 1900 to function as the image processing apparatus 10 includes an input module, a detection module, a distance information acquisition module, an image processing module, and an output module. These programs or modules work on the CPU 2000 or the like to cause the computer 1900 to function as the input unit 12, the detection unit 14, the distance information acquisition unit 16, the image processing unit 18, and the output unit 20, respectively.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である入力部12、検出部14、距離情報取得部16、画像処理部18および出力部20として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像処理装置10が構築される。   The information processing described in these programs is read by the computer 1900, whereby the input unit 12, the detection unit 14, and distance information acquisition, which are specific means in which the software and the various hardware resources described above cooperate. Functions as the unit 16, the image processing unit 18, and the output unit 20. And the specific image processing apparatus 10 according to the intended use is constructed | assembled by implement | achieving the calculation or processing of the information according to the intended use of the computer 1900 in this embodiment by these concrete means.

一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。   As an example, when communication is performed between the computer 1900 and an external device or the like, the CPU 2000 executes a communication program loaded on the RAM 2020 and executes a communication interface based on the processing content described in the communication program. A communication process is instructed to 2030. Under the control of the CPU 2000, the communication interface 2030 reads transmission data stored in a transmission buffer area or the like provided on a storage device such as the RAM 2020, the hard disk drive 2040, the flexible disk 2090, or the CD-ROM 2095, and sends it to the network. The reception data transmitted or received from the network is written into a reception buffer area or the like provided on the storage device. As described above, the communication interface 2030 may transfer transmission / reception data to / from the storage device by a DMA (direct memory access) method. Instead, the CPU 2000 transfers the storage device or the communication interface 2030 as a transfer source. The transmission / reception data may be transferred by reading the data from the data and writing the data to the communication interface 2030 or the storage device of the transfer destination.

また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。   The CPU 2000 is all or necessary from among files or databases stored in an external storage device such as a hard disk drive 2040, a CD-ROM drive 2060 (CD-ROM 2095), and a flexible disk drive 2050 (flexible disk 2090). This portion is read into the RAM 2020 by DMA transfer or the like, and various processes are performed on the data on the RAM 2020. Then, CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like. In such processing, since the RAM 2020 can be regarded as temporarily holding the contents of the external storage device, in the present embodiment, the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, or a storage device. Various types of information such as various programs, data, tables, and databases in the present embodiment are stored on such a storage device and are subjected to information processing. Note that the CPU 2000 can also store a part of the RAM 2020 in the cache memory and perform reading and writing on the cache memory. Even in such a form, the cache memory bears a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device unless otherwise indicated. To do.

また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。   In addition, the CPU 2000 performs various operations, such as various operations, information processing, condition determination, information search / replacement, etc., described in the present embodiment, specified for the data read from the RAM 2020 by the instruction sequence of the program. Is written back to the RAM 2020. For example, when performing the condition determination, the CPU 2000 determines whether the various variables shown in the present embodiment satisfy the conditions such as large, small, above, below, equal, etc., compared to other variables or constants. When the condition is satisfied (or not satisfied), the program branches to a different instruction sequence or calls a subroutine.

また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。   Further, the CPU 2000 can search for information stored in a file or database in the storage device. For example, in the case where a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 displays the plurality of entries stored in the storage device. The entry that matches the condition in which the attribute value of the first attribute is specified is retrieved, and the attribute value of the second attribute that is stored in the entry is read, thereby associating with the first attribute that satisfies the predetermined condition The attribute value of the specified second attribute can be obtained.

以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。   The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the flexible disk 2090 and the CD-ROM 2095, an optical recording medium such as DVD or CD, a magneto-optical recording medium such as MO, a tape medium, a semiconductor memory such as an IC card, and the like can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1900 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
本明細書等によれば、以下の各項目に記載の態様もまた開示される。
[項目1−1]検出部は、撮像画像における各領域の青成分の割合に応じて当該領域における被写体距離を算出してもよい。
[項目1−2]項目1−1において、検出部は、撮像画像における各領域の被写体の種類を判別する判別部と、撮像画像における各領域の青成分の割合を検出する青成分検出部と、被写体の種類毎に画像に含まれるべき青成分の割合を記憶する青成分記憶部と、撮像画像における各領域について、青成分記憶部に記憶された被写体毎の青成分の割合のうち判別部により判別された種類の被写体の青成分の割合と、青成分検出部により検出された青成分の割合との差に基づき、当該領域における被写体距離を算出する算出部と、を有してもよい。
[項目2−1]
撮像画像の各領域における被写体距離を検出する検出部と、
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する画像処理部と、
前記撮像画像の撮像日時に基づき前記撮像画像の撮像時における気象条件を取得する気象条件取得部と、
を備え、
前記検出部は、取得された気象条件、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
画像処理装置。
[項目2−2]
撮像画像の各領域における被写体距離を検出する検出部と、
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する画像処理部と、
前記撮像画像を撮像した位置を表わす位置情報を取得する位置情報取得部と、
を備え、
前記検出部は、取得された前記位置情報、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
画像処理装置。
[項目2−3]
前記撮像画像の前記位置情報に基づき前記撮像画像の撮像時における気象条件を取得する気象条件取得部を
更に備え、
前記検出部は、取得された前記気象条件、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
項目2−2に記載の画像処理装置。
[項目2−4]
撮像画像の各領域における被写体距離を検出する検出部と、
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する画像処理部と、
前記撮像画像の撮像時においてカメラにより測定された各領域における被写体距離を表す距離情報を取得する距離情報取得部と、
を備え、
前記検出部は、前記撮像画像に表示された被写体の輪郭の空間周波数に応じて、当該被写体の被写体距離を算出して、
前記画像処理部は、前記距離情報取得部が取得した距離が予め定められた距離より遠いとされた領域については前記検出部により検出された被写体距離に応じて当該領域における画像の距離感を変更し、
前記距離情報取得部が取得した距離が予め定められた距離より遠いとされていない領域については前記距離情報取得部により取得された距離に応じて当該領域の画像の距離感を変更する
画像処理装置。
[項目2−5]
前記検出部は、ピント距離の異なる設定により撮像された複数の撮像画像に基づき、前記複数の撮像画像の各領域における被写体距離を検出する
項目2−4に記載の画像処理装置。
[項目2−6]
前記検出部は、絞りの異なる設定により撮像された複数の撮像画像に基づき、前記複数の撮像画像の各領域における被写体距離を検出する
項目2−4に記載の画像処理装置。
[項目2−7]
前記画像処理部は、検出した被写体距離が基準値より大きい領域に含まれる青成分の割合を大きくする
項目2−1から6の何れか1項に記載の画像処理装置。
[項目2−8]
前記画像処理部は、検出した被写体距離が基準値より大きい領域の画像をぼかす
項目2−1から6の何れか1項に記載の画像処理装置。
[項目2−9]
前記検出部は、前記撮像画像に表示された被写体の輪郭の空間周波数に応じて、当該被写体の被写体距離を算出する
項目2−1から8の何れか1項に記載の画像処理装置。
[項目2−10]
撮像画像の各領域における被写体距離を検出する段階と、
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する段階と、
前記撮像画像の撮像日時に基づき前記撮像画像の撮像時における気象条件を取得する段階と、
を備え、
前記検出する段階は、取得された気象条件、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
画像処理方法。
[項目2−11]
撮像画像の各領域における被写体距離を検出する段階と、
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する段階と
前記撮像画像を撮像した位置を表わす位置情報を取得する段階と、
を備え、
前記検出する段階は、取得された前記位置情報、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
画像処理方法。
[項目2−12]
撮像画像の各領域における被写体距離を検出する段階と、
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する段階と
前記撮像画像の撮像時においてカメラにより測定された各領域における被写体距離を表す距離情報を取得する段階と、
を備え、
前記検出する段階は、前記撮像画像に表示された被写体の輪郭の空間周波数に応じて、当該被写体の被写体距離を算出して、
前記距離感を変更する段階は、前記距離情報を取得する段階で取得した距離が予め定められた距離より遠いとされた領域については前記検出する段階により検出された被写体距離に応じて当該領域における画像の距離感を変更し、
前記距離情報を取得する段階で取得した距離が予め定められた距離より遠いとされていない領域については前記距離情報を取得する段階により取得された距離に応じて当該領域の画像の距離感を変更する
画像処理方法。
[項目2−13]
コンピュータを項目2−1から9の何れか1項に記載の画像処理装置として機能させるためのプログラム。
The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
According to this specification etc., the aspect as described in each following item is also disclosed.
[Item 1-1 ] The detection unit may calculate the subject distance in the region according to the ratio of the blue component of each region in the captured image.
[Item 1-2 ] In item 1-1 , the detection unit includes a determination unit that determines the type of subject in each region in the captured image, and a blue component detection unit that detects a ratio of the blue component in each region in the captured image. A blue component storage unit that stores a ratio of a blue component to be included in the image for each type of subject, and a determination unit out of the ratio of the blue component for each subject stored in the blue component storage unit for each region in the captured image And a calculation unit that calculates a subject distance in the region based on a difference between the ratio of the blue component of the type of subject determined by the method and the ratio of the blue component detected by the blue component detection unit. .
[Item 2-1]
A detection unit for detecting a subject distance in each region of the captured image;
An image processing unit that changes a sense of distance of the image of the region according to a subject distance detected for each region of the captured image;
A weather condition acquisition unit for acquiring a weather condition at the time of imaging of the captured image based on an imaging date and time of the captured image;
With
The detection unit detects a subject distance in each region of the captured image in accordance with the acquired weather condition and a change in the spatial frequency of the contour of the subject.
Image processing device.
[Item 2-2]
A detection unit for detecting a subject distance in each region of the captured image;
An image processing unit that changes a sense of distance of the image of the region according to a subject distance detected for each region of the captured image;
A position information acquisition unit that acquires position information indicating a position where the captured image is captured;
With
The detection unit detects a subject distance in each region of the captured image according to the acquired position information and a change in a spatial frequency of the contour of the subject.
Image processing device.
[Item 2-3]
A weather condition acquisition unit for acquiring a weather condition at the time of capturing the captured image based on the position information of the captured image;
In addition,
The detection unit detects a subject distance in each region of the captured image in accordance with the acquired weather condition and a change in the spatial frequency of the contour of the subject.
The image processing device according to item 2-2.
[Item 2-4]
A detection unit for detecting a subject distance in each region of the captured image;
An image processing unit that changes a sense of distance of the image of the region according to a subject distance detected for each region of the captured image;
A distance information acquisition unit that acquires distance information representing a subject distance in each region measured by the camera at the time of capturing the captured image;
With
The detection unit calculates the subject distance of the subject according to the spatial frequency of the contour of the subject displayed in the captured image,
The image processing unit changes the sense of distance of the image in the region according to the subject distance detected by the detection unit for the region in which the distance acquired by the distance information acquisition unit is longer than a predetermined distance. And
For an area where the distance acquired by the distance information acquisition unit is not longer than a predetermined distance, the sense of distance of the image of the area is changed according to the distance acquired by the distance information acquisition unit.
Image processing device.
[Item 2-5]
The detection unit detects a subject distance in each region of the plurality of captured images based on a plurality of captured images captured by setting different focus distances.
The image processing device according to item 2-4.
[Item 2-6]
The detection unit detects a subject distance in each region of the plurality of captured images based on a plurality of captured images captured with different aperture settings.
The image processing device according to item 2-4.
[Item 2-7]
The image processing unit increases a ratio of a blue component included in an area where the detected subject distance is larger than a reference value.
Item 7. The image processing device according to any one of Items 2-1 to 6.
[Item 2-8]
The image processing unit blurs an image of an area where the detected subject distance is larger than a reference value.
Item 7. The image processing device according to any one of Items 2-1 to 6.
[Item 2-9]
The detection unit calculates the subject distance of the subject according to the spatial frequency of the contour of the subject displayed in the captured image.
Item 9. The image processing apparatus according to any one of Items 2-1 to 8.
[Item 2-10]
Detecting a subject distance in each area of the captured image;
Changing the sense of distance of the image of the region according to the subject distance detected for each region of the captured image;
Obtaining weather conditions at the time of imaging of the captured image based on the imaging date and time of the captured image;
With
The detecting step detects a subject distance in each region of the captured image in accordance with the acquired weather condition and a change in the spatial frequency of the contour of the subject.
Image processing method.
[Item 2-11]
Detecting a subject distance in each area of the captured image;
Changing the sense of distance of the image of the area according to the subject distance detected for each area of the captured image;
Obtaining position information representing a position where the captured image is captured;
With
The detecting step detects a subject distance in each region of the captured image according to the acquired position information and a change in a spatial frequency of the contour of the subject.
Image processing method.
[Item 2-12]
Detecting a subject distance in each area of the captured image;
Changing the sense of distance of the image of the area according to the subject distance detected for each area of the captured image;
Obtaining distance information representing subject distance in each region measured by the camera at the time of capturing the captured image;
With
The detecting step calculates the subject distance of the subject according to the spatial frequency of the contour of the subject displayed in the captured image,
In the step of changing the sense of distance, in the region in which the distance acquired in the step of acquiring the distance information is set to be longer than a predetermined distance, in the region according to the subject distance detected in the detecting step. Change the sense of distance of the image,
For a region where the distance acquired in the step of acquiring the distance information is not longer than a predetermined distance, the sense of distance of the image of the region is changed according to the distance acquired in the step of acquiring the distance information Do
Image processing method.
[Item 2-13]
A program for causing a computer to function as the image processing apparatus according to any one of Items 2-1 to 9.

10 画像処理装置、12 入力部、14 検出部、16 距離情報取得部、18 画像処理部、20 出力部、22 判別部、24 青成分検出部、26 青成分記憶部、28 算出部、32 位置情報取得部、34 気象条件取得部、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD−ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD−ROM DESCRIPTION OF SYMBOLS 10 Image processing apparatus, 12 Input part, 14 Detection part, 16 Distance information acquisition part, 18 Image processing part, 20 Output part, 22 Discrimination part, 24 Blue component detection part, 26 Blue component storage part, 28 Calculation part, 32 Position Information acquisition unit, 34 Weather condition acquisition unit, 1900 computer, 2000 CPU, 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 flexible disk drive, 2060 CD-ROM drive, 2070 input / output chip, 2075 graphics Controller, 2080 Display device, 2082 Host controller, 2084 I / O controller, 2090 Flexible disk, 2095 CD-ROM

Claims (13)

撮像画像の撮像時においてカメラにより測定された各領域における被写体距離を表す距離情報を取得する距離情報取得部と、
前記撮像画像に含まれる前記距離情報を用いずに、前記撮像画像の各領域における被写体距離を検出する検出部と、
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する画像処理部と、
を備え、
前記画像処理部は、前記距離情報取得部が取得した距離が予め定められた距離より遠いとされた領域については前記検出部により検出された被写体距離に応じて当該領域における画像の距離感を変更し、
前記距離情報取得部が取得した距離が予め定められた距離より遠いとされていない領域については前記距離情報取得部により取得された距離に応じて当該領域の画像の距離感を変更する
画像処理装置。
A distance information acquisition unit that acquires distance information representing a subject distance in each region measured by the camera at the time of capturing a captured image;
A detection unit that detects a subject distance in each region of the captured image without using the distance information included in the captured image;
An image processing unit that changes a sense of distance of the image of the region according to a subject distance detected for each region of the captured image;
With
The image processing unit changes the sense of distance of the image in the region according to the subject distance detected by the detection unit for the region in which the distance acquired by the distance information acquisition unit is longer than a predetermined distance. And
An image processing apparatus that changes the sense of distance of an image of the area according to the distance acquired by the distance information acquisition unit for an area where the distance acquired by the distance information acquisition unit is not longer than a predetermined distance .
前記画像処理部は、検出した被写体距離が基準値より大きい領域に含まれる青成分の割合を大きくする
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image processing unit increases a ratio of a blue component included in a region where the detected subject distance is larger than a reference value.
前記画像処理部は、検出した被写体距離が基準値より大きい領域の画像をぼかす
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image processing unit blurs an image in a region where the detected subject distance is larger than a reference value.
前記検出部は、前記撮像画像における各領域の青成分の割合に応じて当該領域における被写体距離を算出する
請求項1から3の何れか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the detection unit calculates a subject distance in the region according to a ratio of a blue component of each region in the captured image.
前記検出部は、
前記撮像画像における各領域の被写体の種類を判別する判別部と、
前記撮像画像における各領域の青成分の割合を検出する青成分検出部と、
被写体の種類毎に画像に含まれるべき青成分の割合を記憶する青成分記憶部と、
前記撮像画像における各領域について、前記青成分記憶部に記憶された被写体毎の青成分の割合のうち前記判別部により判別された種類の被写体の青成分の割合と、前記青成分検出部により検出された青成分の割合との差に基づき、当該領域における被写体距離を算出する算出部と、
を有する
請求項4に記載の画像処理装置。
The detector is
A discriminator for discriminating the type of subject in each area in the captured image;
A blue component detection unit for detecting a ratio of a blue component of each region in the captured image;
A blue component storage unit that stores a ratio of a blue component to be included in an image for each type of subject;
For each area in the captured image, the ratio of the blue component of the type of subject determined by the determination unit out of the ratio of the blue component for each subject stored in the blue component storage unit and detected by the blue component detection unit A calculation unit that calculates a subject distance in the region based on a difference from the ratio of the blue component that has been performed;
The image processing apparatus according to claim 4.
前記検出部は、前記撮像画像に表示された被写体の輪郭の空間周波数に応じて、当該被写体の被写体距離を算出する
請求項1から3の何れか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the detection unit calculates a subject distance of the subject according to a spatial frequency of a contour of the subject displayed in the captured image.
前記撮像画像の撮像日時に基づき前記撮像画像の撮像時における気象条件を取得する気象条件取得部
を更に備え、
前記検出部は、取得された気象条件、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
請求項に記載の画像処理装置。
A weather condition acquisition unit for acquiring weather conditions at the time of imaging of the captured image based on the imaging date and time of the captured image;
The image processing device according to claim 6 , wherein the detection unit detects a subject distance in each region of the captured image in accordance with the acquired weather condition and a change in a spatial frequency of the contour of the subject.
前記撮像画像を撮像した位置を表わす位置情報を取得する位置情報取得部を
更に備え、
前記検出部は、取得された前記位置情報、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
請求項に記載の画像処理装置。
A position information acquisition unit that acquires position information indicating a position where the captured image is captured;
The image processing device according to claim 6 , wherein the detection unit detects a subject distance in each region of the captured image in accordance with the acquired position information and a change in a spatial frequency of the contour of the subject.
前記撮像画像の前記位置情報に基づき前記撮像画像の撮像時における気象条件を取得する気象条件取得部を
更に備え、
前記検出部は、取得された前記気象条件、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
請求項8に記載の画像処理装置。
A weather condition acquisition unit for acquiring a weather condition at the time of capturing the captured image based on the position information of the captured image;
The image processing apparatus according to claim 8, wherein the detection unit detects a subject distance in each region of the captured image according to the acquired weather condition and a change in a spatial frequency of the contour of the subject.
前記検出部は、ピント距離の異なる設定により撮像された複数の撮像画像に基づき、前記複数の撮像画像の各領域における被写体距離を検出する
請求項1から9の何れか1項に記載の画像処理装置。
The image processing according to any one of claims 1 to 9, wherein the detection unit detects a subject distance in each region of the plurality of captured images based on a plurality of captured images captured with different settings of focus distances. apparatus.
前記検出部は、絞りの異なる設定により撮像された複数の撮像画像に基づき、前記複数の撮像画像の各領域における被写体距離を検出する
請求項1から9の何れか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the detection unit detects a subject distance in each region of the plurality of captured images based on a plurality of captured images captured with different settings of an aperture. .
撮像画像の撮像時においてカメラにより測定された各領域における被写体距離を表す距離情報を取得する段階と、
前記撮像画像に含まれる前記距離情報を用いずに、前記撮像画像の各領域における被写体距離を検出する段階と、
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する段階と、
を備え、
前記距離感を変更する段階では、前記距離情報を取得する段階で取得した距離が予め定められた距離より遠いとされた領域については前記被写体距離を検出する段階で検出された被写体距離に応じて当該領域における画像の距離感を変更し、
前記距離情報を取得する段階で取得した距離が予め定められた距離より遠いとされていない領域については前記距離情報を取得する段階で取得された距離に応じて当該領域の画像の距離感を変更する
画像処理方法。
Obtaining distance information representing subject distance in each region measured by the camera at the time of capturing a captured image;
Detecting the subject distance in each region of the captured image without using the distance information included in the captured image;
Changing the sense of distance of the image of the region according to the subject distance detected for each region of the captured image;
With
In the step of changing the sense of distance, according to the subject distance detected in the step of detecting the subject distance for an area where the distance obtained in the step of obtaining the distance information is longer than a predetermined distance. Change the sense of distance of the image in the area,
For a region where the distance acquired in the step of acquiring the distance information is not assumed to be longer than a predetermined distance, the sense of distance of the image of the region is changed according to the distance acquired in the step of acquiring the distance information Image processing method.
コンピュータを請求項1から11の何れか1項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 11.
JP2015083977A 2015-04-16 2015-04-16 Image processing apparatus, image processing method, and program Active JP5962810B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015083977A JP5962810B2 (en) 2015-04-16 2015-04-16 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015083977A JP5962810B2 (en) 2015-04-16 2015-04-16 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014116692A Division JP5733451B2 (en) 2014-06-05 2014-06-05 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015173457A JP2015173457A (en) 2015-10-01
JP5962810B2 true JP5962810B2 (en) 2016-08-03

Family

ID=54260497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015083977A Active JP5962810B2 (en) 2015-04-16 2015-04-16 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5962810B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3235776B2 (en) * 1996-08-07 2001-12-04 三洋電機株式会社 Stereoscopic effect adjusting method and stereoscopic effect adjusting device
JP2009053748A (en) * 2007-08-23 2009-03-12 Nikon Corp Image processing apparatus, image processing program, and camera
JP5183277B2 (en) * 2008-04-03 2013-04-17 三菱電機株式会社 Stereoscopic image display device

Also Published As

Publication number Publication date
JP2015173457A (en) 2015-10-01

Similar Documents

Publication Publication Date Title
US10462455B2 (en) Display apparatus, display method, and computer readable recording medium
US11682225B2 (en) Image processing to detect a rectangular object
US20210374972A1 (en) Panoramic video data processing method, terminal, and storage medium
US20120176471A1 (en) Systems and Methods for Performing Video Conversion Based on Non-Linear Stretch Information
US10839529B2 (en) Image processing apparatus and image processing method, and storage medium
US11908183B2 (en) Image analysis and processing pipeline with real-time feedback and autocapture capabilities, and visualization and configuration system
JP2013250974A (en) Image processing device, image processing method, scanner, and storage medium
US20130182943A1 (en) Systems and methods for depth map generation
US9143754B2 (en) Systems and methods for modifying stereoscopic images
JP5556494B2 (en) Image processing apparatus, image processing method, and program
JP5962810B2 (en) Image processing apparatus, image processing method, and program
JP5733451B2 (en) Image processing apparatus, image processing method, and program
CN112991419B (en) Parallax data generation method, parallax data generation device, computer equipment and storage medium
US20180061078A1 (en) Image processing device, image processing method, and non-transitory computer-readable recording medium
Jiang et al. Sensor-assisted image deblurring of consumer photos on smartphones
JP6358084B2 (en) Image processing device
KR20140119325A (en) Apparatus for redeeming noise of depth image and method thereof
US11501571B2 (en) Depth processing
JP5556493B2 (en) Display device, display method, and program
CN111383155B (en) Watermark identification method, device, equipment and storage medium
CN116664597A (en) Image instance segmentation result optimization method, terminal equipment and storage medium
JP2013232751A (en) Imaging apparatus, image processing apparatus, image processing method, and program
Jun et al. Deblurring texture extraction from digital aerial image by reforming “Steep edge” curve
JP2010259009A (en) Image presentation system, image processing apparatus, program and image processing method
KR20130015617A (en) Pose estimation method and apparatus, and augmented reality system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160613

R150 Certificate of patent or registration of utility model

Ref document number: 5962810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250