JP5733451B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP5733451B2 JP5733451B2 JP2014116692A JP2014116692A JP5733451B2 JP 5733451 B2 JP5733451 B2 JP 5733451B2 JP 2014116692 A JP2014116692 A JP 2014116692A JP 2014116692 A JP2014116692 A JP 2014116692A JP 5733451 B2 JP5733451 B2 JP 5733451B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- region
- image
- subject
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 83
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000001514 detection method Methods 0.000 claims description 55
- 230000008859 change Effects 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 11
- 230000006854 communication Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 238000000034 method Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000012546 transfer Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
立体画像表示装置では、観視者の左右の眼に視差のある画像を与えることにより、遠近感のある画像を観視者に見せている。 In the stereoscopic image display device, an image with a parallax is given to the viewer's left and right eyes to show the viewer a perspective image.
特許文献1 特開平6−324620号公報 Japanese Patent Application Laid-Open No. 6-324620
ところで、立体画像表示装置において、外部から入力した画像に対して更に遠近感を強調したり弱めたりする処理を行ってから画像を表示することは行われていなかった。 By the way, in a stereoscopic image display device, an image is not displayed after performing processing for further enhancing or weakening perspective on an image input from the outside.
上記課題を解決するために、本発明の第1の態様においては、撮像画像の各領域における被写体距離を検出する検出部と、前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する画像処理部と、を備える画像処理装置、並びに、画像処理方法およびプログラムを提供する。 In order to solve the above problem, in the first aspect of the present invention, a detection unit that detects a subject distance in each region of the captured image, and a subject distance detected for each region of the captured image, An image processing apparatus, an image processing method, and a program are provided that include an image processing unit that changes the sense of distance of an image in the region.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態に係る画像処理装置10の構成を示す。画像処理装置10は、カメラにより撮像された撮像画像に対して画像処理を施す。画像処理装置10は、一例として、表示装置の画像入力段に備えられる。また、画像処理装置10は、カメラの画像出力段に設けられてもよい。
FIG. 1 shows a configuration of an
画像処理装置10は、入力部12と、検出部14と、距離情報取得部16と、画像処理部18と、出力部20とを備える。入力部12は、カメラにより撮像された撮像画像を入力する。入力部12は、一例として、記録媒体に格納された撮像画像を読み出してもよいし、放送局等から送信された撮像画像を復調してもよい。
The
検出部14は、撮像画像の各領域における被写体距離を検出する。被写体距離とは、撮像時におけるカメラから被写体までの距離を示す。
The
検出部14は、一例として、撮像画像における各領域の青成分の割合に応じて当該領域における被写体距離を算出する。例えば風景を撮像した場合における被写体距離が遠い被写体は、カメラから当該被写体までの間の空気の層の影響により、本来の被写体の色よりも青成分の割合が多くなって映る。従って、検出部14は、撮像画像内の各領域に含まれている青成分の割合に応じて当該領域における被写体距離を推定することができる。
For example, the
検出部14は、一例として、撮像画像における各領域のそれぞれの平均色を算出し、算出した平均色の色彩を解析して当該平均色が含んでいる青成分の割合を算出する。そして、検出部14は、一例として、それぞれの領域について、青成分の割合が多いほど被写体距離が遠いと判断して、当該領域の被写体距離を推定する処理を行う。
For example, the
また、検出部14は、撮像画像に表示された被写体の輪郭の空間周波数に応じて、当該被写体の被写体距離を算出してもよい。例えば風景を撮像した場合における被写体距離が遠い被写体は、カメラから当該被写体までの間の空気の層の影響により、ボケが大きくなる。従って、検出部14は、撮像画像内の各領域に含まれている被写体の輪郭の空間周波数に応じて当該領域における被写体距離を推定することができる。
The
検出部14は、一例として、撮像画像における各領域のそれぞれの被写体のエッジ部分を抽出し、抽出したエッジの空間周波数を算出する。そして、検出部14は、一例として、それぞれの領域について、空間周波数が低いほど被写体距離が遠いと判断して、当該領域の被写体距離を推定する処理を行う。
As an example, the
距離情報取得部16は、撮像画像の撮像時においてカメラにより測定された各領域における被写体距離を表す距離情報を取得する。距離情報取得部16は、一例として、デプスマップと呼ばれる、カメラから画面内の被写体の表面までの距離を表す2次元情報を取得する。
The distance
画像処理部18は、撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する。
The
画像処理部18は、一例として、検出部14が撮像画像の各領域に対して検出した被写体距離に応じて各領域の青成分の割合を変更することにより、当該領域の画像の距離感を変更する。例えば、画像処理部18は、撮像画像の各領域について、検出した被写体距離に応じた量の青成分を増加させる。
As an example, the
より具体的には、画像処理部18は、被写体距離の基準値を予め設定しておき、検出した被写体距離が基準値より大きい領域に含まれる青成分の割合を大きくしてもよい。例えば、画像処理部18は、1km、10kmという2つの基準値を設定する。そして、画像処理部18は、被写体距離が1kmから10kmまでの領域について青成分の割合を20%増加し、10km以上の領域について青成分の割合を40%増加する、といったように青成分の割合を増加する。
More specifically, the
また、画像処理部18は、一例として、検出部14が撮像画像の各領域に対して検出した被写体距離に応じて各領域をぼかすことにより、当該領域の画像の距離感を変更する。例えば、画像処理部18は、撮像画像の各領域について、検出した被写体距離に応じたぼけ量で画像をぼかす。
Further, as an example, the
より具体的には、画像処理部18は、被写体距離の基準値を予め設定しておき、検出した被写体距離が基準値より大きい領域の画像をぼかしてもよい。例えば、画像処理部18は、1km、10kmという2つの基準値を設定する。そして、画像処理部18は、被写体距離が1kmから10kmまでの領域について、第1のぼかし度合いで画像をぼかし、10km以上の領域について、第1のぼかし度合いより大きな第2のぼかし度合いで画像をぼかす、といったように画像をぼかす。
More specifically, the
このような処理を行うことにより、画像処理部18は、被写体距離が短い領域と被写体距離が遠い領域との距離感の差を大きくすることができる。これにより、画像処理部18は、撮像画像の遠近感を強調することができる。
By performing such processing, the
また、さらに、画像処理部18は、距離情報取得部16により取得された距離情報を更に用いて、撮像画像の各領域の画像の距離感を変更してもよい。例えば、画像処理部18は、距離情報取得部16が取得した距離が予め定められた距離より遠いとされた領域については、検出部14により検出された被写体距離に応じて当該領域における画像の距離感を変更する。例えば、画像処理部18は、距離情報取得部16が無限遠と検出した領域については、検出部14により検出された被写体距離に応じて当該領域における画像の距離感を変更する。
Further, the
そして、画像処理部18は、距離情報取得部16が取得した被写体距離が予め定められた距離より遠いとされていない領域については、距離情報取得部16により取得された被写体距離に応じて当該領域の画像の距離感を変更する。例えば、画像処理部18は、距離情報取得部16が無限遠ではない距離を検出している領域については、距離情報取得部16により検出された被写体距離に応じて当該領域における画像の距離感を変更する。これにより、画像処理部18は、より広い範囲の被写体距離に基づいて画像の距離感を変更して、遠近感をより強調することができる。
Then, the
出力部20は、画像処理部18により画像処理がされた撮像画像を外部へと出力する。出力部20は、例えば当該画像処理装置10が表示装置に備えられている場合であれば、遠近感を強調した撮像画像をモニタに出力する。また、出力部20は、例えば画像処理装置10がカメラに備えられている場合であれば、遠近感を強調した撮像画像を記憶媒体に記憶させる。
The
図2は、本実施形態に係る画像処理装置10により画像処理がされる前の元の撮像画像の一例を示す。図3は、本実施形態に係る画像処理装置10により画像処理がされた後の撮像画像の一例を示す。
FIG. 2 shows an example of an original captured image before image processing is performed by the
図2および図3に示される撮像画像には、例えば、人物(近景)、家(中景)、山(遠景)および空(超遠景)が含まれている。また、図3において、×印は青成分の割合を増加させた領域を示す。 The captured images shown in FIGS. 2 and 3 include, for example, a person (near view), a house (middle view), a mountain (distant view), and a sky (very distant view). Further, in FIG. 3, a cross indicates a region where the ratio of the blue component is increased.
画像処理装置10は、一例として、図2に示した画像に含まれる、例えば山(遠景)および空(超遠景)に対して、青成分の割合を増加させる。さらに、画像処理装置10は、山(遠景)の領域よりも、被写体距離が遠い空(超遠景)の領域に対して、より大きく青成分の割合を増加させる。
As an example, the
また、画像処理装置10は、青成分の割合を増加させることに加えてまたはに代えて、山(遠景)および空(超遠景)をボケさせてもよい。この場合も、画像処理装置10は、山(遠景)の領域よりも、被写体距離が遠い空(超遠景)の領域に対して、より大きなボケ量で画像をボケさせる。
Further, in addition to or instead of increasing the ratio of the blue component, the
このような、画像処理装置10は、撮像画像における被写体距離が近い領域と遠い領域との距離差をより大きく感じさせることができる。これにより、画像処理装置10によれば、カメラにより撮像された撮像画像内の被写体の輪郭および構図を変化させずに、撮像画像における遠近感を強調することができる。
Such an
図4は、本実施形態に係る検出部14の構成の一例を示す。検出部14は、一例として、図4に示されるように、判別部22と、青成分検出部24と、青成分記憶部26と、算出部28とを有する。
FIG. 4 shows an example of the configuration of the
判別部22は、撮像画像における各領域の被写体の種類を判別する。判別部22は、一例として、予め登録された画像パターンと撮像画像に含まれている被写体とを比較して、撮像画像に含まれている被写体の種類が何であるかを判別する。
The
青成分検出部24は、撮像画像における各領域の青成分の割合を検出する。青成分検出部24は、一例として、それぞれの領域について、当該領域の平均色を算出し、算出した平均色の色彩を解析して当該平均色が含んでいる青成分の割合を算出する。
The blue
青成分記憶部26は、被写体の種類毎に画像に含まれるべき青成分の割合を記憶する。青成分記憶部26は、一例として、判別部22が検出できる被写体の種類のそれぞれについて、当該種類の被写体の表面の色が本来含んでいる青成分の割合を記憶する。青成分記憶部26は、一例として、ユーザ等により予め登録された値を記憶する。
The blue
算出部28は、撮像画像における各領域について、判別部22により判別された種類の被写体の青成分の割合を、青成分記憶部26から読み出す。続いて、算出部28は、青成分記憶部26に記憶された被写体毎の青成分の割合のうち判別部22により判別された種類の被写体の青成分の割合と、青成分検出部24により検出された青成分の割合との差を算出する。そして、算出部28は、算出した差に基づき、当該領域における被写体距離を算出する。
The
例えば、算出部28は、青成分検出部24により検出された青成分の割合から、青成分記憶部26に記憶された被写体毎の青成分の割合を減じた差が、基準値以上であるか否かを算出する。そして、算出部28は、差が基準値より小さい場合、被写体距離が基準距離以下であると判断する。また、算出部28は、算出した差が基準値以上の場合、被写体距離が基準距離以上であると判断する。
For example, the
このような検出部14によれば、予め登録された種類の被写体が撮像画像に含まれる場合、正確に被写体距離を検出することができる。
According to such a
図5は、本実施形態の変形例に係る画像処理装置10の構成を示す。本変形例に係る画像処理装置10は、図1に示された画像処理装置10と略同一の構成および機能を採るので、図1に示した部材と略同一の構成および機能の部材に同一の符号を付け、以下相違点を除き説明を省略する。
FIG. 5 shows a configuration of an
本変形例に係る画像処理装置10は、位置情報取得部32と、気象条件取得部34とを更に備える。位置情報取得部32は、撮像画像を撮像した位置を表わす位置情報を取得する。例えばGPS(Global Positioning System)受信機を備えるカメラは、撮像位置を示す位置情報を付加した撮像画像を出力することができる。位置情報取得部32は、このようなカメラから出力された撮像画像に含まれる位置情報を取得する。
The
気象条件取得部34は、撮像画像の撮像日時および位置情報取得部32により取得された位置情報に基づき、撮像画像の撮像時における気象条件を取得する。例えばカメラは、撮像日時を付加した撮像画像を出力することができる。位置情報取得部32は、このようなカメラから出力された撮像画像に含まれる撮像日時を取得する。そして、気象条件取得部34は、取得した撮像日時における、位置情報取得部32により取得された位置情報に示された土地の気象条件を、例えばネットワークを介して取得する。
The weather condition acquisition unit 34 acquires the weather conditions at the time of imaging of the captured image based on the imaging date and time of the captured image and the position information acquired by the position
本変形例に係る検出部14は、気象条件取得部34により取得された気象条件に応じて撮像画像の各領域における被写体距離を検出する。例えば、撮像画像の撮像時における気象条件が"晴れ"の場合、空気が澄んでいるので、被写体距離が遠い被写体の輪郭が鮮明に撮像される。反対に、撮像画像の撮像時における気象条件が"雨"等の場合、空気が淀んでいるので、被写体距離が遠い被写体の輪郭は不鮮明に撮像される。そこで、検出部14は、一例として、被写体の輪郭の空間周波数に基づく被写体距離の推定処理において、同一の空間周波数であっても、気象条件が"晴れ"の場合には気象条件が"雨"等の場合よりも、被写体距離を短く推定する。
The
また、本変形例に係る検出部14は、取得された気象条件に加えてまたは気象条件に代えて、位置情報取得部32により取得された位置情報に応じて撮像画像の各領域における被写体距離を検出してもよい。例えば、撮像画像の撮像場所によって空気が澄んでいる場所と淀んでいる場所がある。空気が澄んでいる場所(例えば都会以外)では被写体距離が遠い被写体の輪郭が鮮明に撮像される。反対に、空気が淀んでいる場所(例えば都会)、被写体距離が遠い被写体の輪郭は不鮮明に撮像される。そこで、検出部14は、一例として、被写体の輪郭の空間周波数に基づく被写体距離の推定処理において、同一の空間周波数であっても、空気が澄んでいる撮影場所(例えば都会以外)の場合には、空気が淀んでいる撮影場所(例えば都会)の場合よりも、被写体距離を短く推定する。
In addition to the acquired weather condition or instead of the weather condition, the
以上のより、本変形例に係る画像処理装置10は、より正確に被写体距離を検出して、撮像画像における遠近感を正確に強調することができる。
As described above, the
また、本変形例に係る検出部14は、同一被写体に対してピント距離の異なる設定により撮像された複数の撮像画像に基づき、複数の撮像画像の各領域における被写体距離を検出してもよい。この場合、検出部14は、一例として、複数の撮像画像のそれぞれについて、画面内においてピントが合っている領域を検出する。そして、検出部14は、複数の撮像画像のそれぞれのピント距離から、画面内においてピントがあっている領域の被写体距離を推定する。これにより、検出部14は、例えば、撮像画像に距離情報が含まれていないような場合であっても、デプスマップと同様の距離情報を生成することができる。
Further, the
また、本変形例に係る検出部14は、絞りの異なる設定により撮像された複数の撮像画像に基づき、複数の撮像画像の各領域における被写体距離を検出してもよい。この場合、複数の撮像画像における画面内におけるピントが合っている範囲は、絞りを開けている状態から絞りを絞った状態に遷移するに従って、順次に広がっていく。そこで、検出部14は、一例として、複数の撮像画像のそれぞれについて、画面内においてピントが合っている範囲を比較して、画面内における各領域の被写体距離を推定する。これにより、検出部14は、例えば、撮像画像に距離情報が含まれていないような場合であっても、デプスマップと同様の距離情報を生成することができる。
In addition, the
図6は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。
FIG. 6 shows an example of a hardware configuration of a
ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
The
入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。
The input /
また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
The input /
RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。
A program provided to the
コンピュータ1900にインストールされ、コンピュータ1900を画像処理装置10として機能させるプログラムは、入力モジュールと、検出モジュールと、距離情報取得モジュールと、画像処理モジュールと、出力モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、入力部12、検出部14、距離情報取得部16、画像処理部18および出力部20としてそれぞれ機能させる。
A program that is installed in the
これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である入力部12、検出部14、距離情報取得部16、画像処理部18および出力部20として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像処理装置10が構築される。
The information processing described in these programs is read by the
一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
As an example, when communication is performed between the
また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。
The
また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
In addition, the
また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
Further, the
以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。
The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
[項目1]検出部は、撮像画像における各領域の青成分の割合に応じて当該領域における被写体距離を算出してもよい。
[項目2]項目1において、検出部は、撮像画像における各領域の被写体の種類を判別する判別部と、撮像画像における各領域の青成分の割合を検出する青成分検出部と、被写体の種類毎に画像に含まれるべき青成分の割合を記憶する青成分記憶部と、撮像画像における各領域について、青成分記憶部に記憶された被写体毎の青成分の割合のうち判別部により判別された種類の被写体の青成分の割合と、青成分検出部により検出された青成分の割合との差に基づき、当該領域における被写体距離を算出する算出部と、を有してもよい。
The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
[Item 1] The detection unit may calculate the subject distance in the region according to the ratio of the blue component of each region in the captured image.
[Item 2] In Item 1, the detection unit determines the type of subject in each area in the captured image, the blue component detection unit that detects the ratio of the blue component in each area in the captured image, and the type of subject The blue component storage unit that stores the ratio of the blue component that should be included in the image every time, and the discrimination unit out of the ratio of the blue component for each subject stored in the blue component storage unit for each region in the captured image A calculation unit that calculates a subject distance in the region based on a difference between a blue component ratio of the type of subject and a blue component ratio detected by the blue component detection unit;
10 画像処理装置、12 入力部、14 検出部、16 距離情報取得部、18 画像処理部、20 出力部、22 判別部、24 青成分検出部、26 青成分記憶部、28 算出部、32 位置情報取得部、34 気象条件取得部、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD−ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD−ROM
DESCRIPTION OF
Claims (13)
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する画像処理部と、
前記撮像画像の撮像日時に基づき前記撮像画像の撮像時における気象条件を取得する気象条件取得部と、
を備え、
前記検出部は、取得された気象条件、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
画像処理装置。 A detection unit for detecting a subject distance in each region of the captured image;
An image processing unit that changes a sense of distance of the image of the region according to a subject distance detected for each region of the captured image;
A weather condition acquisition unit for acquiring a weather condition at the time of imaging of the captured image based on an imaging date and time of the captured image;
With
The said detection part is an image processing apparatus which detects the to-be- photographed object distance in each area | region of the said captured image according to the change of the spatial conditions of the acquired weather conditions and the said to-be-photographed object's outline .
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する画像処理部と、
前記撮像画像を撮像した位置を表わす位置情報を取得する位置情報取得部と、
を備え、
前記検出部は、取得された前記位置情報、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
画像処理装置。 A detection unit for detecting a subject distance in each region of the captured image;
An image processing unit that changes a sense of distance of the image of the region according to a subject distance detected for each region of the captured image;
A position information acquisition unit that acquires position information indicating a position where the captured image is captured;
With
The said detection part is an image processing apparatus which detects the to-be- photographed object distance in each area | region of the said captured image according to the change of the acquired positional information and the spatial frequency of the outline of the to-be-photographed object .
更に備え、
前記検出部は、取得された前記気象条件、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
請求項2に記載の画像処理装置。 A weather condition acquisition unit for acquiring a weather condition at the time of capturing the captured image based on the position information of the captured image;
The image processing apparatus according to claim 2 , wherein the detection unit detects a subject distance in each region of the captured image in accordance with the acquired weather condition and a change in a spatial frequency of the contour of the subject.
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する画像処理部と、
前記撮像画像の撮像時においてカメラにより測定された各領域における被写体距離を表す距離情報を取得する距離情報取得部と、
を備え、
前記検出部は、前記撮像画像に表示された被写体の輪郭の空間周波数に応じて、当該被写体の被写体距離を算出して、
前記画像処理部は、前記距離情報取得部が取得した距離が予め定められた距離より遠いとされた領域については前記検出部により検出された被写体距離に応じて当該領域における画像の距離感を変更し、
前記距離情報取得部が取得した距離が予め定められた距離より遠いとされていない領域については前記距離情報取得部により取得された距離に応じて当該領域の画像の距離感を変更する
画像処理装置。 A detection unit for detecting a subject distance in each region of the captured image;
An image processing unit that changes a sense of distance of the image of the region according to a subject distance detected for each region of the captured image;
A distance information acquisition unit that acquires distance information representing a subject distance in each region measured by the camera at the time of capturing the captured image;
With
The detection unit calculates the subject distance of the subject according to the spatial frequency of the contour of the subject displayed in the captured image,
The image processing unit changes the sense of distance of the image in the region according to the subject distance detected by the detection unit for the region in which the distance acquired by the distance information acquisition unit is longer than a predetermined distance. And
An image processing apparatus that changes the sense of distance of an image of the area according to the distance acquired by the distance information acquisition unit for an area where the distance acquired by the distance information acquisition unit is not longer than a predetermined distance .
請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4 , wherein the detection unit detects a subject distance in each region of the plurality of captured images based on a plurality of captured images captured with different settings of focus distances.
請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4 , wherein the detection unit detects a subject distance in each region of the plurality of captured images based on a plurality of captured images captured with different settings of an aperture.
請求項1から6の何れか1項に記載の画像処理装置。 Wherein the image processing unit, an image processing apparatus according to any one of claims 1 6 to increase the ratio of the blue component of the subject distance detected is included in the area greater than the reference value.
請求項1から6の何れか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image processing unit blurs an image in a region where the detected subject distance is larger than a reference value.
請求項1から8の何れか1項に記載の画像処理装置。 Wherein the detection unit, in response to said spatial frequency of the outline of the subject displayed on the captured image, the image processing apparatus according to any one of claims 1 to calculate a subject distance of the subject 8.
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する段階と、
前記撮像画像の撮像日時に基づき前記撮像画像の撮像時における気象条件を取得する段階と、
を備え、
前記検出する段階は、取得された気象条件、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
画像処理方法。 Detecting a subject distance in each area of the captured image;
Changing the sense of distance of the image of the region according to the subject distance detected for each region of the captured image;
Obtaining weather conditions at the time of imaging of the captured image based on the imaging date and time of the captured image;
With
The detecting step is an image processing method for detecting a subject distance in each region of the captured image in accordance with an acquired weather condition and a change in a spatial frequency of the contour of the subject .
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する段階と
前記撮像画像を撮像した位置を表わす位置情報を取得する段階と、
を備え、
前記検出する段階は、取得された前記位置情報、及び、前記被写体の輪郭の空間周波数の変化に応じて前記撮像画像の各領域における被写体距離を検出する
画像処理方法。 Detecting a subject distance in each area of the captured image;
Changing the sense of distance of the image of the area according to the subject distance detected for each area of the captured image;
Obtaining position information representing a position where the captured image is captured;
With
The detecting step is an image processing method for detecting a subject distance in each region of the captured image in accordance with the acquired positional information and a change in a spatial frequency of the contour of the subject .
前記撮像画像の各領域に対して検出した被写体距離に応じて、当該領域の画像の距離感を変更する段階と
前記撮像画像の撮像時においてカメラにより測定された各領域における被写体距離を表す距離情報を取得する段階と、
を備え、
前記検出する段階は、前記撮像画像に表示された被写体の輪郭の空間周波数に応じて、当該被写体の被写体距離を算出して、
前記距離感を変更する段階は、前記距離情報を取得する段階で取得した距離が予め定められた距離より遠いとされた領域については前記検出する段階により検出された被写体距離に応じて当該領域における画像の距離感を変更し、
前記距離情報を取得する段階で取得した距離が予め定められた距離より遠いとされていない領域については前記距離情報を取得する段階により取得された距離に応じて当該領域の画像の距離感を変更する
画像処理方法。 Detecting a subject distance in each area of the captured image;
Changing the sense of distance of the image of the area according to the subject distance detected for each area of the captured image;
Obtaining distance information representing subject distance in each region measured by the camera at the time of capturing the captured image;
With
The detecting step calculates the subject distance of the subject according to the spatial frequency of the contour of the subject displayed in the captured image,
In the step of changing the sense of distance, in the region in which the distance acquired in the step of acquiring the distance information is set to be longer than a predetermined distance, in the region according to the subject distance detected in the detecting step. Change the sense of distance of the image,
For a region where the distance acquired in the step of acquiring the distance information is not longer than a predetermined distance, the sense of distance of the image of the region is changed according to the distance acquired in the step of acquiring the distance information image processing method for.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116692A JP5733451B2 (en) | 2014-06-05 | 2014-06-05 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116692A JP5733451B2 (en) | 2014-06-05 | 2014-06-05 | Image processing apparatus, image processing method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010179144A Division JP5556494B2 (en) | 2010-08-10 | 2010-08-10 | Image processing apparatus, image processing method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015083977A Division JP5962810B2 (en) | 2015-04-16 | 2015-04-16 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014200097A JP2014200097A (en) | 2014-10-23 |
JP5733451B2 true JP5733451B2 (en) | 2015-06-10 |
Family
ID=52356721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014116692A Active JP5733451B2 (en) | 2014-06-05 | 2014-06-05 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5733451B2 (en) |
-
2014
- 2014-06-05 JP JP2014116692A patent/JP5733451B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014200097A (en) | 2014-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10462455B2 (en) | Display apparatus, display method, and computer readable recording medium | |
US10282913B2 (en) | Markerless augmented reality (AR) system | |
US10943140B2 (en) | Image processing to detect a rectangular object | |
US20190026922A1 (en) | Markerless augmented reality (ar) system | |
US8786673B2 (en) | Systems and methods for performing video conversion based on non-linear stretch information | |
JP6355346B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
US20210374972A1 (en) | Panoramic video data processing method, terminal, and storage medium | |
US11908183B2 (en) | Image analysis and processing pipeline with real-time feedback and autocapture capabilities, and visualization and configuration system | |
US10839529B2 (en) | Image processing apparatus and image processing method, and storage medium | |
JP2013140428A (en) | Edge detection device, edge detection program, and edge detection method | |
Zhao et al. | Automatic blur region segmentation approach using image matting | |
US8824778B2 (en) | Systems and methods for depth map generation | |
JP5556494B2 (en) | Image processing apparatus, image processing method, and program | |
JP5733451B2 (en) | Image processing apparatus, image processing method, and program | |
CN110827254A (en) | Method and device for determining image definition | |
JP5962810B2 (en) | Image processing apparatus, image processing method, and program | |
JP2006050070A (en) | Image processing method, apparatus and program thereof | |
US11176728B2 (en) | Adaptive depth-guided non-photorealistic rendering method and device | |
JP6358084B2 (en) | Image processing device | |
Jiang et al. | Sensor-assisted image deblurring of consumer photos on smartphones | |
JP2019176261A (en) | Image processor | |
JP5919998B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP7341712B2 (en) | Image processing device, image processing method, imaging device, and program | |
JP5556493B2 (en) | Display device, display method, and program | |
Jun et al. | Deblurring texture extraction from digital aerial image by reforming “Steep edge” curve |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5733451 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |