JP2015033103A - 画像処理装置、画像処理方法、およびプログラム - Google Patents
画像処理装置、画像処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2015033103A JP2015033103A JP2013163718A JP2013163718A JP2015033103A JP 2015033103 A JP2015033103 A JP 2015033103A JP 2013163718 A JP2013163718 A JP 2013163718A JP 2013163718 A JP2013163718 A JP 2013163718A JP 2015033103 A JP2015033103 A JP 2015033103A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- image processing
- main subject
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/704—Pixels specially adapted for focusing, e.g. phase difference pixel sets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
【課題】奥行き情報を用いて画像処理を容易に最適化することができるようにする。【解決手段】圧縮処理部は、現在のフレームの撮像画像の被写体の奥行き方向の位置を表す奥行き情報としてのデプスマップと、1フレーム前の撮像画像のデプスマップとに基づいて、現在のフレームの撮像画像に対して圧縮処理を行う。本開示は、例えば、撮像画像を取得するとともに、撮像画像の合焦面からのずれ量を表す位相差情報を取得し、位相差情報に基づいて撮像画像を圧縮する画像処理装置等に適用することができる。【選択図】図1
Description
本開示は、画像処理装置、画像処理方法、およびプログラムに関し、特に、奥行き情報を用いて画像処理を容易に最適化することができるようにした画像処理装置、画像処理方法、およびプログラムに関する。
一般的に、画像記録装置は、画像データを記録する際、データ量を最小限に抑制し、記録可能なデータの時間量を増加させるため、画像データに対して圧縮処理を行う。
圧縮処理においては、符号を多く割り当てることにより画質の劣化を抑制する領域と、それ以外の領域とを正確に判定することが、画質の劣化を抑制しつつ、圧縮率を向上させるために重要である。
この判定の方法としては、圧縮前の画像を解析して高周波成分の有無、顔領域、時間方向の差分等の情報を検出し、その情報に基づいて領域を判定する方法がある。例えば、圧縮前の画像全体を周波数解析して高周波成分の有無を検出する場合、高周波成分が有る領域が着目領域とされ、符号を多く割り当てる領域と判定される。また、圧縮前の画像から顔領域を検出する場合、その顔領域が主要な被写体の領域とされ、符号を多く割り当てる領域と判定される。この方法では、判定のために圧縮前の画像を解析する必要があるため、処理量が多い。
顔領域等の所定の領域を検出する方法としては、外光パッシブ方式の測距装置によって得られる複数の測距点の値に基づいて作成された距離画像に基づいて人物領域を検出する方法がある(例えば、特許文献1参照)。
一方、撮像素子において、画像とともに、画素より大きい単位の画像の位相差を表すデプスマップを取得することにより、高速かつ正確に合焦する像面位相差オートフォーカス方式のカメラがある。
上述したように、圧縮前の画像を解析して符号を多く割り当てる領域を判定し、画像を圧縮する場合、処理量が多い。即ち、画像を用いて圧縮処理などの画像処理を最適化する場合、処理量が多い。その結果、高精度かつ高速に画像処理を最適化するためには、画像処理を行う画像処理装置の回路規模および回路の消費電力が大きくなる。
従って、画像よりサンプル数の少ない、デプスマップ等の被写体の奥行き方向(撮像面に垂直な方向)の位置を表す奥行き情報を用いて、画像処理を容易に最適化することにより、画像処理装置を小型軽量化および低コスト化することが望まれている。
本開示は、このような状況に鑑みてなされたものであり、奥行き情報を用いて画像処理を容易に最適化することができるようにするものである。
本開示の一側面の画像処理装置は、第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理部を備える画像処理装置である。
本開示の一側面の画像処理方法およびプログラムは、本開示の一側面の画像処理装置に対応する。
本開示の一側面においては、第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理が行われる。
本開示の一側面によれば、奥行き情報を用いて画像処理を容易に最適化することができる。
<第1実施の形態>
(画像処理装置の第1実施の形態の構成例)
図1は、本開示を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。
(画像処理装置の第1実施の形態の構成例)
図1は、本開示を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。
図1の画像処理装置10は、光学系11、撮像素子12、画像処理部13、圧縮処理部14、メディア制御部15、記録メディア16、位相差処理部17、マイクロコンピュータ18、メモリ19、およびアクチュエータ20により構成される。画像処理装置10は、画像とともに、その画像の合焦面からのずれ量を位相差として表す位相差情報を画素より大きい単位(以下、検出単位という)で取得し、その位相差情報に基づいて画像を圧縮する。
具体的には、光学系11は、レンズ、絞りなどにより構成される。光学系11は、被写体からの光を撮像素子12に集光させる。光学系11は、アクチュエータ20により駆動される。
撮像素子12は、位相差検出画素12Aを有する。撮像素子12は、光学系11により集光された光を画素単位で光電変換し、静止画像または動画像の各画素の電気信号を取得する。このとき、位相差検出画素12Aは、光学系11により集光された光に基づいて、検出単位で位相差情報を生成し、位相差処理部17に供給する。撮像素子12は、各画素の電気信号を画像処理部13に供給する。なお、以下では、静止画像と動画像を特に区別する必要がない場合、それらをまとめて撮像画像という。
位相差検出画素12Aは、光学系11により集光された光に基づいて位相差情報を生成するので、現在取得中の撮像画像に対応する位相差情報をリアルタイムに取得することができる。
画像処理部13は、撮像素子12から供給される各画素の電気信号に対してA/D変換等の画像処理を行い、その結果得られる各画素のデジタルデータである画像データを圧縮処理部14とマイクロコンピュータ18に供給する。
圧縮処理部14は、画像処理部として機能し、マイクロコンピュータ18から供給される符号割り当て優先度マップに基づいて、画像処理部13から供給される画像データに対して圧縮処理を行う。なお、符号割り当て優先度マップとは、各画素の符号の割り当てに関する優先度を表すマップである。圧縮処理部14は、符号割り当て優先度マップの優先度が高い画素ほど多くの符号を割り当て、画像データを圧縮する。
静止画像の画像データの圧縮方式としては、JPEG(Joint Photographic Experts Group)などがある。動画像の画像データの圧縮方式としては、MPEG2(Moving Picture Experts Group phase 2),MPEG4などがある。圧縮処理部14は、圧縮後の画像データをメディア制御部15に供給する。
メディア制御部15は、記録メディア16を制御し、圧縮処理部14から供給される圧縮後の画像データを記録メディア16に記録させる。記録メディア16は、メディア制御部15の制御により、圧縮後の画像データを記録する。
位相差処理部17は、位相差検出画素12Aから供給される撮像画像の検出単位の位相差情報からなるデプスマップを生成し、マイクロコンピュータ18に供給する。
マイクロコンピュータ18は、画像処理装置10の各部を制御する。例えば、マイクロコンピュータ18は、位相差処理部17から供給されるデプスマップと画像処理部13から供給される画像データをメモリ19に供給する。
また、マイクロコンピュータ18は、検出部として機能し、デプスマップに基づいて、撮像画像内の主要な被写体の領域である主被写体領域を検出する。マイクロコンピュータ18は、主被写体領域に基づいて符号割り当て優先度マップを生成する。
さらに、撮像画像が動画像である場合、マイクロコンピュータ18は、メモリ19から現在のフレームより1つ前のフレームの動画像の画像データを読み出す。そして、マイクロコンピュータ18は、その動画像の画像データと現在のフレームの動画像の画像データとに基づいて、マッチング等により動きベクトルを検出する。そして、マイクロコンピュータ18は、その動きベクトルに基づいて符号割り当て優先度マップを生成する。
なお、以下では、デプスマップに基づいて生成される符号割り当て優先度マップと、動きベクトルに基づいて生成される符号割り当て優先度マップを区別する場合、前者を位相符号割り当て優先度マップといい、後者を動き符号割り当て優先度マップという。
マイクロコンピュータ18は、位相符号割り当て優先度マップと動き符号割り当て優先度マップを圧縮処理部14に供給する。
また、マイクロコンピュータ18は、デプスマップに基づいて、フォーカス位置Fcsがユーザにより指定された位置の位相差情報が表すずれ量の逆の量だけ移動するように、アクチュエータ20を制御する。これにより、ユーザにより指定された位置にピントが合った撮像画像を撮像することができる。なお、ユーザは、図示せぬタッチパネルと一体化された表示部に表示される撮像画像の所定の位置をタッチ操作すること等により、その位置を、ピントを合わせる位置として指定することができる。
メモリ19は、マイクロコンピュータ18の作業領域である。メモリ19は、マイクロコンピュータ18による処理の途中結果や最終結果を記憶する。例えば、メモリ19は、マイクロコンピュータ18から供給されるデプスマップと画像データを記憶する。
アクチュエータ20は、マイクロコンピュータ18により制御される。アクチュエータ20は、光学系11を駆動し、フォーカス位置Fcs、絞り値Iris、およびズーム倍率Zmを制御する。
(撮像画像の例)
図2は、撮像画像の例を示す図である。
図2は、撮像画像の例を示す図である。
図2の撮像画像40は、前景として家41を含み、背景として山42と雲43を含む。また、撮像画像40では、家41が主要な被写体とされ、家41にピント(焦点)が合っている。
(デプスマップの例)
図3は、図2の撮像画像40のデプスマップの例を示す図である。
図3は、図2の撮像画像40のデプスマップの例を示す図である。
なお、図3では、説明の便宜上、家41、山42、および雲43を、それらの位置に対応するデプスマップ50の位置に図示するが、実際には、家41、山42、および雲43はデプスマップ50上に存在しない。
撮像画像40では家41にピントが合っているため、デプスマップ50の家41に対応する位置の位相差情報は、図3に示すように、0付近(図3の例では0)である。また、山42および雲43は背景であるため、デプスマップ50の山42および雲43に対応する位置の位相差情報は、図3に示すように、負の値(図3の例では−20)である。一方、デプスマップ50の家41より手前側に存在する被写体に対応する位置の位相差情報は、図3に示すように、正の値(図3の例では2,4,6,8)である。
以上のように、ピントが合っている主被写体領域である家41の位相差情報は0付近となる。従って、デプスマップ50に基づいて、撮像画像40の位相差情報が0付近である、主要な被写体のサイズとして想定されるサイズの最小値である想定最小サイズ以上のサイズの領域を検出することにより、主被写体領域を容易に検出することができる。よって、検出された主被写体領域に基づいて符号の割り当てを行うことにより圧縮処理を容易に最適化し、高効率で高精度の圧縮処理を行うことができる。
(画像処理装置の処理の説明)
図4は、画像処理装置10の静止画撮影処理を説明するフローチャートである。
図4は、画像処理装置10の静止画撮影処理を説明するフローチャートである。
図4のステップS10において、撮像素子12は、光学系11により集光された光を画素単位で光電変換して静止画像の各画素の電気信号を取得し、画像処理部13に供給する。また、撮像素子12の位相差検出画素12Aは、光学系11により集光された光に基づいて検出単位で位相差情報を取得し、位相差処理部17に供給する。
ステップS11において、画像処理部13は、撮像素子12から供給される静止画像の各画素の電気信号に対してA/D変換等の画像処理を行い、その結果得られる画像データを圧縮処理部14とマイクロコンピュータ18に供給する。マイクロコンピュータ18は、画像処理部13から供給される画像データをメモリ19に供給して記憶させる。
ステップS12において、画像処理装置10は、位相符号割り当て優先度マップを生成する優先度マップ生成処理を行う。この優先度マップ生成処理の詳細は、後述する図5を参照して説明する。
ステップS13において、圧縮処理部14は、位相符号割り当て優先度マップまたは撮像画像に基づいて生成された符号割り当て優先度マップである画像符号割り当て優先度マップに基づいて、静止画像の画像データを圧縮する。圧縮処理部14は、圧縮後の画像データをメディア制御部15に供給する。
ステップS14において、メディア制御部15は、記録メディア16を制御し、圧縮処理部14から供給される圧縮後の画像データを記録メディア16に記録させる。そして、処理は終了する。
図5は、図4のステップS12の優先度マップ生成処理の詳細を説明するフローチャートである。
図5のステップS31において、位相差処理部17は、位相差検出画素12Aから供給される撮像画像の検出単位の位相差情報に基づいて、その位相差情報からなるデプスマップを生成し、マイクロコンピュータ18に供給する。マイクロコンピュータ18は、位相差処理部17から供給されるデプスマップをメモリ19に供給して記憶させる。
ステップS32において、マイクロコンピュータ18は、デプスマップから、位相差情報の絶対値が一定値以下である、即ち0付近である検出単位を検出する。マイクロコンピュータ18は、検出された連続する検出単位からなる領域を合焦領域とする。
ステップS33において、マイクロコンピュータ18は、少なくとも1つの合焦領域のサイズが想定最小サイズ以上であるかどうかを判定する。ステップS33で少なくとも1つの合焦領域のサイズが想定最小サイズ以上であると判定された場合、ステップS34において、マイクロコンピュータ18は、想定最小サイズ以上のサイズの合焦領域を主被写体領域とする。
ステップS35において、マイクロコンピュータ18は、主被写体領域の周囲の領域を境界領域として検出する。
ステップS36において、マイクロコンピュータは、主被写体領域と境界領域の符号の割り当てに関する優先度が高くなるように、位相符号割り当て優先度マップを生成し、圧縮処理部14に供給する。そして、処理は、図4のステップS12に戻り、処理はステップS13に進む。
その結果、静止画像の画像データの圧縮時に、主要被写体領域と境界領域に対して多くの符号が割り当てられ、それらの領域以外の領域に対して少ない符号が割り当てられる。よって、圧縮後の画像データの画質が向上する。
一方、ステップS33で全ての合焦領域のサイズが想定最小サイズ以上ではないと判定された場合、処理はステップS37に進む。ステップS37において、マイクロコンピュータ18は、撮像画像の画像データに基づいて、従来の方式で画像符号割り当て優先度マップを生成し、圧縮処理部14に供給する。そして、処理は、図4のステップS12に戻り、処理はステップS13に進む。
その結果、静止画像の画像データの圧縮時に、例えば、高周波成分が有る領域に対して多くの符号が割り当てられ、高周波数成分が無い領域に対して少ない符号が割り当てられる。よって、圧縮後の画像データの画質が向上する。
図6は、画像処理装置10の動画撮影処理を説明するフローチャートである。
図6のステップS50において、撮像素子12は、光学系11により集光された光を画素単位で光電変換して動画像の各画素の電気信号を取得し、画像処理部13に供給する。また、撮像素子12の位相差検出画素12Aは、光学系11により集光された光に基づいて検出単位で位相差情報を取得し、位相差処理部17に供給する。
ステップS51において、画像処理部13は、撮像素子12から供給される動画像の各画素の電気信号に対してA/D変換等の画像処理を行い、その結果得られる画像データを圧縮処理部14とマイクロコンピュータ18に供給する。マイクロコンピュータ18は、画像処理部13から供給される画像データをメモリ19に供給して記憶させる。
ステップS52において、画像処理装置10は、図5の優先度マップ生成処理を行う。
ステップS53において、マイクロコンピュータ18は、動画像のピクチャタイプがIピクチャであるかどうかを判定する。
ステップS53で動画像のピクチャタイプがIピクチャであると判定された場合、処理はステップS54に進む。ステップS54において、圧縮処理部14は、マイクロコンピュータ18から供給される位相符号割り当て優先度マップまたは画像符号割り当て優先度マップに基づいて、画像処理部13から供給される動画像の画像データを圧縮する。
これにより、Iピクチャの画像データの圧縮時に、主要被写体領域と境界領域に対して多くの符号が割り当てられ、それらの領域以外の領域に対して少ない符号が割り当てられる。その結果、圧縮後の画像データの画質が向上する。圧縮処理部14は、圧縮後の画像データをメディア制御部15に供給し、処理をステップS64に進める。
一方、ステップS53でピクチャタイプがIピクチャではない場合、即ちピクチャタイプがPピクチャまたはBピクチャである場合、処理はステップS55に進む。ステップS55において、マイクロコンピュータ18は、メモリ19に記憶されている1フレーム前の動画像の画像データと、現在のフレームの動画像の画像データとに基づいて、マッチング等により動きベクトルを検出する。
ステップS56において、マイクロコンピュータ18は、動きベクトルに基づいて動き符号割り当て優先度マップを生成する。具体的には、マイクロコンピュータ18は、動きベクトルが0である領域と0以外である領域の境界の領域である動き境界領域の優先度が高くなるように、動き符号割り当て優先度マップを生成する。
即ち、動き境界領域においては、1フレーム前の動画像内に対応する領域が存在しない可能性が高いため、符号が優先的に割り当てられる。一方、動き境界領域以外の領域は、1フレーム前の動画像内の動きベクトルが指す領域と同一である可能性が高いため、符号が優先的に割り当てられない。マイクロコンピュータ18は、動き符号割り当て優先度マップを圧縮処理部14に供給する。
ステップS57において、マイクロコンピュータ18は、ステップS52で位相符号割り当て優先度マップを生成したかどうかを判定する。
ステップS57で位相符号割り当て優先度マップを生成したと判定された場合、ステップS58において、マイクロコンピュータ18は、1フレーム前の動画像に対するステップS52の処理で位相符号割り当て優先度マップが生成されたかどうかを判定する。ステップS58で1フレーム前の位相符号割り当て優先度マップが生成されたと判定された場合、マイクロコンピュータ18は、1フレーム前のデプスマップをメモリ19から読み出す。
そして、ステップS59において、マイクロコンピュータ18は、1フレーム前のデプスマップと、ステップS52で検出された現在のフレームの主被写体領域とに基づいて、主被写体領域が移動しているかどうかを判定する。
具体的には、マイクロコンピュータ18は、図5のステップS32乃至S34の処理を行うことにより、1フレーム前のデプスマップから主被写体領域を検出する。マイクロコンピュータ18は、検出された1フレーム前の主被写体領域の位置が、ステップS52で検出された現在のフレームの主被写体領域の位置と異なっている場合、主被写体領域が移動していると判定する。一方、同一である場合、マイクロコンピュータ18は、主被写体領域が移動していないと判定する。
ステップS59で主被写体領域が移動していないと判定された場合、ステップS60において、マイクロコンピュータ18は、1フレーム前の主被写体領域と現在のフレームの主被写体領域とに基づいて、主被写領域の形状が変化しているかどうかを判定する。
1フレーム前の主被写体領域の形状と現在のフレームの主被写体領域の形状が同一である場合、ステップS60で主被写体領域の形状が変化していないと判定され、処理はステップS61に進む。
ステップS61において、マイクロコンピュータ18は、位相符号割り当て優先度マップの主被写体領域の優先度を、主被写体領域と境界領域以外の領域の優先度である標準値に変更する。なお、主被写体領域の優先度だけでなく、境界領域の優先度も標準値に変更するようにしてもよい。マイクロコンピュータ18は、変更後の位相符号割り当て優先度マップを圧縮処理部14に供給し、処理をステップS62に進める。
一方、ステップS58で1フレーム前の位相符号割り当て優先度マップが生成されていないと判定された場合、マイクロコンピュータ18は、ステップS52で生成された位相符号割り当て優先度マップをそのまま圧縮処理部14に供給する。そして、処理はステップS62に進む。
また、ステップS59で主被写体領域が移動している、または、主被写体領域の形状が変化していると判定された場合、マイクロコンピュータ18は、ステップS52で生成された位相符号割り当て優先度マップをそのまま圧縮処理部14に供給する。そして、処理はステップS62に進む。
ステップS62において、圧縮処理部14は、マイクロコンピュータ18から供給される位相符号割り当て優先度マップと動き符号割り当て優先度マップとに基づいて、画像処理部13から供給される動画像の画像データを圧縮する。
これにより、PピクチャまたはBピクチャの画像データの圧縮時に、形状または位置が変化している主要被写体領域、境界領域、および動き境界領域に対して多くの符号が割り当てられ、それらの領域以外の領域に対して少ない符号が割り当てられる。その結果、圧縮後の画像データの画質が向上する。圧縮処理部14は、圧縮後の画像データをメディア制御部15に供給し、処理をステップS64に進める。
一方、ステップS57で位相符号割り当て優先度マップを生成していないと判定された場合、ステップS63において、圧縮処理部14は、動き符号割り当て優先度マップに基づいて、動画像の画像データを圧縮する。
これにより、PピクチャまたはBピクチャの画像データの圧縮時に、動き境界領域に対して多くの符号が割り当てられ、動き境界領域以外の領域に対して少ない符号が割り当てられる。その結果、圧縮後の画像データの画質が向上する。
なお、圧縮処理部14は、動き符号割り当て優先度マップだけでなく、ステップS52で生成された画像符号割り当て優先度マップにも基づいて圧縮を行うようにしてもよい。圧縮処理部14は、圧縮後の画像データをメディア制御部15に供給し、処理をステップS64に進める。
ステップS64において、メディア制御部15は、記録メディア16を制御し、圧縮処理部14から供給される圧縮後の画像データを記録メディア16に記録させる。そして、処理は終了する。
以上のように、画像処理装置10は、現在のフレームのデプスマップと1フレーム前のデプスマップとに基づいて、現在のフレームの動画像に対して圧縮処理を行う。従って、画像処理装置10は、例えば、主被写体領域の位置または形状が変化する場合、主被写体領域の符号の割り当てに関する優先度を高くし、変化しない場合低くすることにより、高効率で高精度の圧縮処理を行うことができる。即ち、圧縮処理を最適化することができる。
また、画像処理装置10は、撮像画像よりサンプル数が少ないデプスマップに基づいて圧縮処理を最適化するので、撮像画像に基づいて最適化する場合に比べて処理が容易である。
その結果、画像処理装置10の消費電力を低減することができる。これにより、画像処理装置10の図示せぬバッテリの小型化や長時間駆動化、放熱構造の簡略化による画像処理装置10の小型化や軽量化、バッテリの小型化による画像処理装置10の低コスト化を実現することができる。また、画像処理装置10のマイクロコンピュータ18を小型化することができる。
さらに、画像処理装置10は、フォーカス位置Fcsを制御するために位相差検出画素12Aにより取得される位相差情報を用いて圧縮処理を最適化するため、ハードウエアの追加を最低限に抑制することができる。
また、画像処理装置10は、位相符号割り当て優先度マップだけでなく、動き符号割り当て優先度マップにも基づいて圧縮処理を行うので、より圧縮効率を向上させることができる。
なお、画像処理装置10は、デプスマップを用いて撮像画像から動きベクトルを検出するようにしてもよい。この場合、画像処理装置10は、デプスマップから検出された動きベクトルに基づいて、撮像画像のマッチングの探索範囲等を限定する。
これにより、デプスマップを用いない場合に比べて、マッチングの演算量を削減し、マイクロコンピュータ18の消費電力や回路規模を抑制することができる。また、デプスマップから動きベクトルを推定し、推定される動きベクトルに対応する探索範囲で動きベクトルを検出するため、動きベクトルの検出精度が向上し、符号の割り当てを精度良く行うことができる。
また、画像処理装置10は、デプスマップに基づいて検出された主被写体領域を、通常の撮像画像を用いた主被写体領域の検出に用いて、最終的な主被写体領域を決定するようにしてもよい。この場合、デプスマップに基づいて検出された主被写体領域を用いない場合に比べて、主被写体領域の検出処理の処理量を削減し、マイクロコンピュータ18の消費電力や回路規模を抑制することができる。
さらに、画像処理装置10は、デプスマップに基づいて位相符号割り当て優先度マップを生成するのではなく、デプスマップから検出された主被写体領域に基づいて画像符号割り当て優先度マップを生成するようにしてもよい。この場合、例えば、画像処理装置10は、主被写体領域では高周波数成分の有無の検出を主被写体領域以外の領域に比べて高精度に行ったり、主被写体領域でのみ高周波数成分の検出結果を補間したりする。
(本開示を適用したコンピュータの説明)
上述した撮像処理以外の一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
上述した撮像処理以外の一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図7は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、撮像部206、入力部207、出力部208、記憶部209、通信部210、及びドライブ211が接続されている。
撮像部206は、図1の光学系11、撮像素子12、アクチュエータ20等により構成される。撮像部206は、撮像画像と位相差情報を取得する。入力部207は、キーボード、マウス、マイクロフォンなどよりなる。出力部208は、ディスプレイ、スピーカなどよりなる。
記憶部209は、ハードディスクや不揮発性のメモリなどよりなる。通信部210は、ネットワークインタフェースなどよりなる。ドライブ211は、磁気ディスク、光ディスク、光磁気ディスク、記録メディア、又は半導体メモリなどのリムーバブルメディア212を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部209に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア212に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア212をドライブ211に装着することにより、入出力インタフェース205を介して、記憶部209にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部210で受信し、記憶部209にインストールすることができる。その他、プログラムは、ROM202や記憶部209に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、圧縮処理以外のノイズリダクション処理等の画像処理を行う画像処理装置にも適用することができる。本開示がノイズリダクション処理を行う画像処理装置に適用される場合には、例えば、現在のフレームのデプスマップと1フレーム前のデプスマップとに基づいてシーンチェンジが検出され、シーンチェンジが検出された場合、ノイズリダクション処理が停止される。これにより、シーンチェンジ時のノイズリダクション処理により画質が低下することを防止することができる。
また、本開示は、位相差情報以外の奥行き情報を検出単位で取得し、その奥行き情報に基づいて画像を圧縮する画像処理装置にも適用することができる。
さらに、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本開示は、以下のような構成もとることができる。
(1)
第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理部
を備える画像処理装置。
(2)
前記奥行き情報は、画像の位相差を表すデプスマップである
前記(1)に記載の画像処理装置。
(3)
前記画像処理部は、前記第1のフレームの奥行き情報と前記第2のフレームの奥行き情報とに基づいて、前記第1のフレームの画像に対して圧縮処理を行う
前記(1)または(2)に記載の画像処理装置。
(4)
前記第1のフレームの奥行き情報に基づいて前記第1のフレームの画像内の主要な被写体の領域である主被写体領域を検出し、前記第2のフレームの奥行き情報に基づいて前記第2のフレームの画像内の主被写体領域を検出する検出部
をさらに備え、
前記画像処理部は、前記検出部により検出された前記第1のフレームの主被写体領域と前記第2のフレームの主被写体領域とに基づいて、前記第1のフレームの画像に対して圧縮処理を行う
前記(3)に記載の画像処理装置。
(5)
前記画像処理部は、前記第1のフレームの主被写体領域の位置が前記第2のフレームの主被写体領域の位置から移動している場合、前記第1のフレームの主被写体領域の符号割り当ての優先度を高くして、前記第1のフレームの画像に対して圧縮処理を行う
前記(4)に記載の画像処理装置。
(6)
前記画像処理部は、前記第1のフレームの主被写体領域の形状と前記第2のフレームの主被写体領域の形状が異なる場合、前記第1のフレームの主被写体領域の符号割り当ての優先度を高くして、前記第1のフレームの画像に対して圧縮処理を行う
前記(4)または(5)に記載の画像処理装置。
(7)
前記画像処理部は、前記第1のフレームの画像がIピクチャ以外である場合、前記第1のフレームの主被写体領域と前記第2のフレームの主被写体領域とに基づいて、前記第1のフレームの画像に対して圧縮処理を行う
前記(4)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記画像処理部は、前記第1のフレームの画像がIピクチャである場合、前記第1のフレームの主被写体領域の符号割り当ての優先度を高くして、前記第1のフレームの画像に対して圧縮処理を行う
前記(7)に記載の画像処理装置。
(9)
画像処理装置が、
第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理ステップ
を含む画像処理方法。
(10)
コンピュータを、
第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理部
として機能させるためのプログラム。
第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理部
を備える画像処理装置。
(2)
前記奥行き情報は、画像の位相差を表すデプスマップである
前記(1)に記載の画像処理装置。
(3)
前記画像処理部は、前記第1のフレームの奥行き情報と前記第2のフレームの奥行き情報とに基づいて、前記第1のフレームの画像に対して圧縮処理を行う
前記(1)または(2)に記載の画像処理装置。
(4)
前記第1のフレームの奥行き情報に基づいて前記第1のフレームの画像内の主要な被写体の領域である主被写体領域を検出し、前記第2のフレームの奥行き情報に基づいて前記第2のフレームの画像内の主被写体領域を検出する検出部
をさらに備え、
前記画像処理部は、前記検出部により検出された前記第1のフレームの主被写体領域と前記第2のフレームの主被写体領域とに基づいて、前記第1のフレームの画像に対して圧縮処理を行う
前記(3)に記載の画像処理装置。
(5)
前記画像処理部は、前記第1のフレームの主被写体領域の位置が前記第2のフレームの主被写体領域の位置から移動している場合、前記第1のフレームの主被写体領域の符号割り当ての優先度を高くして、前記第1のフレームの画像に対して圧縮処理を行う
前記(4)に記載の画像処理装置。
(6)
前記画像処理部は、前記第1のフレームの主被写体領域の形状と前記第2のフレームの主被写体領域の形状が異なる場合、前記第1のフレームの主被写体領域の符号割り当ての優先度を高くして、前記第1のフレームの画像に対して圧縮処理を行う
前記(4)または(5)に記載の画像処理装置。
(7)
前記画像処理部は、前記第1のフレームの画像がIピクチャ以外である場合、前記第1のフレームの主被写体領域と前記第2のフレームの主被写体領域とに基づいて、前記第1のフレームの画像に対して圧縮処理を行う
前記(4)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記画像処理部は、前記第1のフレームの画像がIピクチャである場合、前記第1のフレームの主被写体領域の符号割り当ての優先度を高くして、前記第1のフレームの画像に対して圧縮処理を行う
前記(7)に記載の画像処理装置。
(9)
画像処理装置が、
第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理ステップ
を含む画像処理方法。
(10)
コンピュータを、
第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理部
として機能させるためのプログラム。
10 画像処理装置, 14 圧縮処理部, 18 マイクロコンピュータ
Claims (10)
- 第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理部
を備える画像処理装置。 - 前記奥行き情報は、画像の位相差を表すデプスマップである
請求項1に記載の画像処理装置。 - 前記画像処理部は、前記第1のフレームの奥行き情報と前記第2のフレームの奥行き情報とに基づいて、前記第1のフレームの画像に対して圧縮処理を行う
請求項1に記載の画像処理装置。 - 前記第1のフレームの奥行き情報に基づいて前記第1のフレームの画像内の主要な被写体の領域である主被写体領域を検出し、前記第2のフレームの奥行き情報に基づいて前記第2のフレームの画像内の主被写体領域を検出する検出部
をさらに備え、
前記画像処理部は、前記検出部により検出された前記第1のフレームの主被写体領域と前記第2のフレームの主被写体領域とに基づいて、前記第1のフレームの画像に対して圧縮処理を行う
請求項3に記載の画像処理装置。 - 前記画像処理部は、前記第1のフレームの主被写体領域の位置が前記第2のフレームの主被写体領域の位置から移動している場合、前記第1のフレームの主被写体領域の符号割り当ての優先度を高くして、前記第1のフレームの画像に対して圧縮処理を行う
請求項4に記載の画像処理装置。 - 前記画像処理部は、前記第1のフレームの主被写体領域の形状と前記第2のフレームの主被写体領域の形状が異なる場合、前記第1のフレームの主被写体領域の符号割り当ての優先度を高くして、前記第1のフレームの画像に対して圧縮処理を行う
請求項4に記載の画像処理装置。 - 前記画像処理部は、前記第1のフレームの画像がIピクチャ以外である場合、前記第1のフレームの主被写体領域と前記第2のフレームの主被写体領域とに基づいて、前記第1のフレームの画像に対して圧縮処理を行う
請求項4に記載の画像処理装置。 - 前記画像処理部は、前記第1のフレームの画像がIピクチャである場合、前記第1のフレームの主被写体領域の符号割り当ての優先度を高くして、前記第1のフレームの画像に対して圧縮処理を行う
請求項7に記載の画像処理装置。 - 画像処理装置が、
第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理ステップ
を含む画像処理方法。 - コンピュータを、
第1のフレームの画像の被写体の奥行き方向の位置を表す奥行き情報と、前記第1のフレームより前の第2のフレームの画像の奥行き情報とに基づいて、前記第1のフレームの画像に対して処理を行う画像処理部
として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013163718A JP2015033103A (ja) | 2013-08-07 | 2013-08-07 | 画像処理装置、画像処理方法、およびプログラム |
US14/444,127 US20150043826A1 (en) | 2013-08-07 | 2014-07-28 | Image processing apparatus, image processing method, and program |
CN201410371668.7A CN104349056A (zh) | 2013-08-07 | 2014-07-31 | 图像处理设备、图像处理方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013163718A JP2015033103A (ja) | 2013-08-07 | 2013-08-07 | 画像処理装置、画像処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015033103A true JP2015033103A (ja) | 2015-02-16 |
Family
ID=52448725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013163718A Pending JP2015033103A (ja) | 2013-08-07 | 2013-08-07 | 画像処理装置、画像処理方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150043826A1 (ja) |
JP (1) | JP2015033103A (ja) |
CN (1) | CN104349056A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105979248A (zh) * | 2015-03-11 | 2016-09-28 | 索尼公司 | 具有混合深度估计的图像处理系统及其操作方法 |
WO2017175802A1 (ja) * | 2016-04-06 | 2017-10-12 | 株式会社ニコン | 画像処理装置、電子機器、再生装置、再生プログラムおよび再生方法 |
JP2017194654A (ja) * | 2016-04-22 | 2017-10-26 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム並びに記憶媒体 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102272254B1 (ko) * | 2015-02-13 | 2021-07-06 | 삼성전자주식회사 | 위상 검출 픽셀을 이용하여 깊이 맵을 생성하기 위한 영상 생성 장치 |
KR102299575B1 (ko) * | 2015-03-09 | 2021-09-07 | 삼성전자주식회사 | 위상 검출 픽셀들로부터 깊이 맵을 생성할 수 있는 이미지 신호 프로세서와 이를 포함하는 장치 |
CN108352393B (zh) | 2015-07-23 | 2022-09-16 | 光程研创股份有限公司 | 高效宽光谱传感器 |
EP3370259B1 (en) | 2015-08-04 | 2020-03-11 | Artilux Inc. | Germanium-silicon light sensing apparatus |
US10861888B2 (en) | 2015-08-04 | 2020-12-08 | Artilux, Inc. | Silicon germanium imager with photodiode in trench |
US10707260B2 (en) | 2015-08-04 | 2020-07-07 | Artilux, Inc. | Circuit for operating a multi-gate VIS/IR photodiode |
US10761599B2 (en) | 2015-08-04 | 2020-09-01 | Artilux, Inc. | Eye gesture tracking |
US9893112B2 (en) | 2015-08-27 | 2018-02-13 | Artilux Corporation | Wide spectrum optical sensor |
US10886309B2 (en) | 2015-11-06 | 2021-01-05 | Artilux, Inc. | High-speed light sensing apparatus II |
US10741598B2 (en) | 2015-11-06 | 2020-08-11 | Atrilux, Inc. | High-speed light sensing apparatus II |
US10254389B2 (en) | 2015-11-06 | 2019-04-09 | Artilux Corporation | High-speed light sensing apparatus |
US10418407B2 (en) | 2015-11-06 | 2019-09-17 | Artilux, Inc. | High-speed light sensing apparatus III |
US10739443B2 (en) | 2015-11-06 | 2020-08-11 | Artilux, Inc. | High-speed light sensing apparatus II |
CN107211095B (zh) * | 2016-01-06 | 2020-07-28 | 华为技术有限公司 | 处理图像的方法和设备 |
EP3404927A1 (en) * | 2016-01-13 | 2018-11-21 | Sony Corporation | Information processing device and information processing method |
US10721426B2 (en) * | 2017-08-31 | 2020-07-21 | Canon Kabushiki Kaisha | Solid-state image sensor, image capture apparatus and image capture method |
US11105928B2 (en) | 2018-02-23 | 2021-08-31 | Artilux, Inc. | Light-sensing apparatus and light-sensing method thereof |
WO2019165220A1 (en) | 2018-02-23 | 2019-08-29 | Artilux, Inc. | Photo-detecting apparatus and photo-detecting method thereof |
WO2019199691A1 (en) | 2018-04-08 | 2019-10-17 | Artilux, Inc. | Photo-detecting apparatus |
US10854770B2 (en) | 2018-05-07 | 2020-12-01 | Artilux, Inc. | Avalanche photo-transistor |
US10969877B2 (en) | 2018-05-08 | 2021-04-06 | Artilux, Inc. | Display apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3957937B2 (ja) * | 1999-12-21 | 2007-08-15 | キヤノン株式会社 | 画像処理装置及び方法並びに記憶媒体 |
JP4644939B2 (ja) * | 2001-01-17 | 2011-03-09 | 日本電気株式会社 | 動画像符号化装置および動画像符号化方法 |
US20030235338A1 (en) * | 2002-06-19 | 2003-12-25 | Meetrix Corporation | Transmission of independently compressed video objects over internet protocol |
-
2013
- 2013-08-07 JP JP2013163718A patent/JP2015033103A/ja active Pending
-
2014
- 2014-07-28 US US14/444,127 patent/US20150043826A1/en not_active Abandoned
- 2014-07-31 CN CN201410371668.7A patent/CN104349056A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105979248A (zh) * | 2015-03-11 | 2016-09-28 | 索尼公司 | 具有混合深度估计的图像处理系统及其操作方法 |
WO2017175802A1 (ja) * | 2016-04-06 | 2017-10-12 | 株式会社ニコン | 画像処理装置、電子機器、再生装置、再生プログラムおよび再生方法 |
JP2017194654A (ja) * | 2016-04-22 | 2017-10-26 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム並びに記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN104349056A (zh) | 2015-02-11 |
US20150043826A1 (en) | 2015-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015033103A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP5895270B2 (ja) | 撮像装置 | |
US20120147150A1 (en) | Electronic equipment | |
JP4894939B2 (ja) | 撮像装置、表示方法、および、プログラム | |
JP2011059415A (ja) | 撮像装置および測距方法 | |
CN104618640A (zh) | 一种拍照方法及装置 | |
JP2011059415A5 (ja) | ||
US10230903B2 (en) | Image pickup apparatus having image sensor capable of outputting parallax image signal, control method therefor, and storage medium storing control program therefor | |
US9565356B2 (en) | Optimizing capture of focus stacks | |
US20140043435A1 (en) | Three-dimensional imaging through multi-image processing | |
JP6319972B2 (ja) | 画像処理装置、撮像装置、画像処理方法、およびプログラム | |
US20150035855A1 (en) | Electronic apparatus, method of controlling the same, and image reproducing apparatus and method | |
JP2015094925A (ja) | 焦点調節装置、焦点調節方法およびプログラム、並びに焦点調節装置を有する撮像装置 | |
US8687076B2 (en) | Moving image photographing method and moving image photographing apparatus | |
KR20170101532A (ko) | 이미지 융합 방법 및 이를 위한 컴퓨터 프로그램, 그 기록매체 | |
US9661211B2 (en) | Image capture apparatus and method for controlling the same | |
JP2014038288A (ja) | 焦点調節装置及びその制御方法 | |
JP5484129B2 (ja) | 撮像装置 | |
JP2014119622A (ja) | 焦点調節装置及び方法、及び撮像装置 | |
JP5868163B2 (ja) | 撮像装置、撮像装置の制御方法、プログラム | |
JP6851885B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6672085B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2009163716A (ja) | 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム | |
Srivastava et al. | Design and implementation of a real-time autofocus algorithm for thermal imagers | |
WO2022269999A1 (ja) | 制御装置、制御方法、およびプログラム |