JP2009053748A - Image processing apparatus, image processing program, and camera - Google Patents
Image processing apparatus, image processing program, and camera Download PDFInfo
- Publication number
- JP2009053748A JP2009053748A JP2007217219A JP2007217219A JP2009053748A JP 2009053748 A JP2009053748 A JP 2009053748A JP 2007217219 A JP2007217219 A JP 2007217219A JP 2007217219 A JP2007217219 A JP 2007217219A JP 2009053748 A JP2009053748 A JP 2009053748A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- processing apparatus
- subject
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理プログラム、カメラに関する。 The present invention relates to an image processing apparatus, an image processing program, and a camera.
たとえば35mm版カメラに比べて撮像面積が小さい電子カメラのように、実焦点距離が短いカメラは、撮影画像が平面的で奥行き感に乏しいことが多い。このような撮影画像に対してぼかしを付加する画像処理を施す技術が知られている(特許文献1参照)。 For example, a camera with a short actual focal length, such as an electronic camera having a small imaging area compared to a 35 mm version camera, often has a flat captured image and a poor sense of depth. A technique for performing image processing for adding blur to such a photographed image is known (see Patent Document 1).
画像にぼかしを付加するだけでは、画像の立体感が乏しいという問題があった。 There is a problem that the three-dimensional effect of the image is poor only by adding blur to the image.
(1)本発明による画像処理装置は、被写体までの距離情報を有する画像データを入力する入力部と、距離情報に基づいて、画像の立体感を変化させるように画像データを修正する修正部とを有することを特徴とする。
(2)請求項1に記載の画像処理装置において、修正部は、画像の奥行きを深くするように画像データを修正することもできる。
(3)請求項1に記載の画像処理装置において、修正部は、画像に含まれる被写体の少なくとも一部の奥行きを深くするように画像データを修正することもできる。
(4)請求項3に記載の画像処理装置において、修正部は、透視投影図法を用いて被写体の形状を修正することもできる。
(5)請求項3に記載の画像処理装置において、修正部は、被写体の凹凸による陰影を付加することもできる。
(6)請求項3に記載の画像処理装置において、修正部は、被写体の影を付加することもできる。
(7)請求項6に記載の画像処理装置において、画像は複数の被写体を含み、画像データは各被写体までの距離情報を有してもよい。この場合の修正部は、一方の被写体の影が他方の被写体にかかるように影を付加することもできる。
(8)請求項1〜請求項3のいずれか一項に記載の画像処理装置において、画像は複数の被写体を含み、画像データは各被写体までの距離情報を有してもよい。この場合の修正部は、複数の被写体間の奥行きを深く修正することもできる。
(9)請求項8に記載の画像処理装置において、修正部は、遠方に位置する被写体の形状を縮小することもできる。
(10)請求項8に記載の画像処理装置において、修正部は、遠方に位置する被写体に画像ぼけを付加することもできる。
(11)請求項1に記載の画像処理装置において、被写体までの距離情報の少なくとも一部を変換する変換部を有してもよい。この場合の修正部は、変換後の距離情報に応じて画像データを修正することもできる。
(12)請求項11に記載の画像処理装置において、変換部は、距離情報を距離が大きくなるように変換することもできる。
(13)請求項12に記載の画像処理装置において、変換部は、距離情報が長くなるにしたがって、距離の変換量を大きくすることもできる。
(14)請求項1〜請求項13のいずれか一項に記載の画像処理装置において、入力部は、ステレオ画像データを入力することもできる。
(15)請求項1〜請求項13のいずれか一項に記載の画像処理装置において、入力部は、画像の分割領域ごとにフォーカス調節情報を有する画像データを入力することもできる。
(16)本発明による画像処理プログラムは、画像データを入力する処理と、画像データが有する距離情報を用いて当該画像に含まれる被写体までの距離を算出する処理と、被写体までの距離に基づいて画像の立体感を変化させるように画像データを修正する処理とを実行させることを特徴とする。
(17)本発明によるカメラは、請求項1〜請求項15のいずれか一項に記載の画像処理装置を搭載することを特徴とする。
(1) An image processing apparatus according to the present invention includes an input unit that inputs image data having distance information to a subject, and a correction unit that corrects the image data so as to change the stereoscopic effect of the image based on the distance information. It is characterized by having.
(2) In the image processing apparatus according to
(3) In the image processing apparatus according to
(4) In the image processing apparatus according to claim 3, the correction unit can also correct the shape of the subject using a perspective projection method.
(5) In the image processing apparatus according to claim 3, the correction unit can add a shadow due to the unevenness of the subject.
(6) In the image processing apparatus according to claim 3, the correction unit can add a shadow of the subject.
(7) In the image processing apparatus according to claim 6, the image may include a plurality of subjects, and the image data may include distance information to each subject. In this case, the correction unit can add a shadow so that the shadow of one subject is applied to the other subject.
(8) In the image processing device according to any one of
(9) In the image processing apparatus according to the eighth aspect, the correction unit can reduce the shape of a subject located far away.
(10) In the image processing apparatus according to the eighth aspect, the correction unit can add image blur to a subject located far away.
(11) The image processing apparatus according to
(12) In the image processing apparatus according to the eleventh aspect, the conversion unit can also convert the distance information so that the distance becomes larger.
(13) In the image processing apparatus according to the twelfth aspect, the conversion unit can increase the distance conversion amount as the distance information becomes longer.
(14) In the image processing apparatus according to any one of
(15) In the image processing apparatus according to any one of
(16) An image processing program according to the present invention is based on a process for inputting image data, a process for calculating a distance to a subject included in the image using distance information included in the image data, and a distance to the subject. And a process of correcting the image data so as to change the stereoscopic effect of the image.
(17) A camera according to the present invention includes the image processing device according to any one of
本発明によれば、画像の立体感を強めることができる。 According to the present invention, it is possible to enhance the stereoscopic effect of an image.
以下、図面を参照して本発明を実施するための最良の形態について説明する。図1は、本発明の一実施の形態によるステレオ電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、CPU11によって制御される。
The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating a main configuration of a stereo
左右の撮影レンズ21L,Rは、対応する撮像素子22L,Rの撮像面上にそれぞれ被写体像を結像させる。撮像素子22L,RはCCDイメージセンサなどで構成され、撮像面上の被写体像を撮像し、撮像信号を対応する撮像回路23L,Rへそれぞれ出力する。撮像素子22L,Rの撮像面には、たとえばR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応させて設けられている。撮像素子22L,Rがカラーフィルタを通して被写体像を撮像するため、撮像素子22L,Rから出力される光電変換信号は、RGB表色系の色情報を有する。
The left and right photographing lenses 21L, 21R form subject images on the imaging surfaces of the corresponding imaging elements 22L, R, respectively. The
撮像回路23L,Rは、撮像素子22L,Rから出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う他、内蔵するA/D変換回路でアナログ撮像信号をディジタルデータに変換する。 The imaging circuits 23L and R perform analog processing (such as gain control) on the photoelectric conversion signals output from the imaging elements 22L and R, and convert the analog imaging signals into digital data by using a built-in A / D conversion circuit.
CPU11は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路12は、たとえばASICとして構成され、撮像回路23L,Rから入力されるディジタル画像信号に対して画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。また、画像処理回路12は後述する立体像再現処理も行う。
The
画像圧縮回路13は、画像処理回路12による処理後の画像信号に対して、JPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路15は、画像を液晶モニタ16に表示させるための表示データを作成する。
The
記録媒体30は、電子カメラ1に対して着脱可能なメモリカードなどで構成される。記録媒体30には、CPU11からの指示によって画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体30に記録された画像ファイルは、CPU11からの指示によって読み出しが可能である。
The
バッファメモリ14は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体30へ記録する前の画像ファイルを格納したり、記録媒体30から読み出した画像ファイルを格納したりするために使用される。
The
操作部材17は、電子カメラ1の各種ボタンやスイッチ類を含み、レリーズボタンの押下操作、モード切替スイッチの切換操作、メニュー操作など、各操作部材の操作内容に応じた操作信号をCPU11へ出力する。また、後述する立体画像処理を施す画像の指定を行うこともできる。
The
焦点検出装置18は、焦点検出領域に対応する光束を用いて、公知の位相差検出方式によって撮影レンズ21L,Rによる焦点調節状態の検出を行う。具体的には、焦点検出光学系(不図示)を介して一対の被写体像をオートフォーカスセンサ(不図示)上に結像させる。CPU11は、センサ上の一対の被写体像の相対間隔に基づいて撮影レンズ21L,Rによる焦点位置の調節状態(デフォーカス量)を算出する。
The
レンズ駆動機構19は、CPU11からの指示によって撮影レンズ21L,Rを構成するフォーカスレンズ(不図示)を光軸方向に進退移動させる。これにより、ピント調節が行われる。
The
電子カメラ1は、撮影モードと再生モードとを切替え可能に構成される。撮影モードは、被写体像を撮影し、撮影画像のデータを記録媒体30に画像ファイルとして保存する動作モードである。再生モードは、撮影済みの画像データを記録媒体30から読み出すなどして、画像データによる再生画像を液晶モニタ16に表示するモードである。
The
<立体像再現処理>
本実施形態の電子カメラ1は、画像の奥行きを深く見せるように当該画像を加工する立体像再現機能を備える。具体的には、
[1]一対のステレオ画像を用いて注目被写体までのステレオ距離計測を行い、
[2]当該ステレオ画像の少なくとも一方の画像に対し、距離計測結果に基づく注目被写体の凹凸による陰影(シェード)を当該被写体に付加・強調したり、
[3]注目被写体の影(シャドウ)を付加・強調したり、
[4]画像の奥行き(距離)を強調したりする画像処理を施す。
[5]画像処理後の立体像再現画像は、液晶モニタ16への表示や記録媒体30への記録に用いる。
電子カメラ1のCPU11は、操作部材17から立体像再現処理実行を指示する操作信号が入力されると、以下の処理を開始する。
<3D image reproduction processing>
The
[1] Measure stereo distance to the subject of interest using a pair of stereo images,
[2] For at least one of the stereo images, a shadow (shade) due to the unevenness of the subject of interest based on the distance measurement result is added / emphasized to the subject,
[3] Add or enhance the shadow of the subject of interest,
[4] Image processing for enhancing the depth (distance) of the image is performed.
[5] The three-dimensional image reproduction image after image processing is used for display on the
When the operation signal instructing execution of the stereoscopic image reproduction process is input from the
図2は、CPU11が行う立体像再現処理の流れを説明するフローチャートである。図2のステップS11において、CPU11は、記録媒体30から一対のステレオ画像ファイルを読み出し、各々のファイル内の画像データをバッファメモリ14に展開させてステップS12へ進む。読み出すステレオ画像ファイルは、操作部材17からの操作信号によって指示する。
FIG. 2 is a flowchart for explaining the flow of the stereoscopic image reproduction process performed by the
図3はステレオ画像を例示する図であり、図3(a)は左画像、図3(b)は右画像である。電子カメラ1は、左右の撮影光学系によって共通の被写体(人物Aおよび人物B)を含むステレオ画像を撮影する。図3(a),(b)によれば、一対のステレオ画像間には視差が生じ、各画像における人物Aおよび人物Bの相対位置が異なる。記録媒体30には、このようなステレオ画像ファイルが記録されている。
FIG. 3 is a diagram illustrating a stereo image, where FIG. 3A is a left image and FIG. 3B is a right image. The
図2のステップS12において、CPU11はステレオ距離計測を行う。具体的には、
[1]バッファメモリ14上の左画像および右画像のデータから対応する特徴点を抽出し、
[2]抽出した特徴点に対応する左右両画像のデータ位置に基づいてステレオ距離計測を行う。
In step S12 of FIG. 2, the
[1] Extract corresponding feature points from the data of the left image and the right image on the
[2] Stereo distance measurement is performed based on the data positions of the left and right images corresponding to the extracted feature points.
図4は、水平方向についてのステレオ距離計測を説明する概略図である。図4において、左画像撮影位置、右画像撮影位置、および左右両画像に共通の被写体位置(人物Aの場合を例示)とで三角形が形成されている。CPU11は、たとえば特開昭63−18213号公報に開示されているように被写体距離Zを算出する。
FIG. 4 is a schematic diagram for explaining stereo distance measurement in the horizontal direction. In FIG. 4, a triangle is formed with a left image shooting position, a right image shooting position, and a subject position common to both the left and right images (example of person A). The
本実施形態では人物Aおよび人物Bを注目被写体とするので、左画像および右画像から対応する顔画像を抽出するために公知の顔検出処理を行う。たとえば、人物Aの顔に関して距離情報を取得する場合、左画像から検出された顔領域22(図3(a)に例示)と、右画像から検出された顔領域21(図3(b)に例示)とを対応する演算対象領域とし、両演算対象領域に含まれる画素データを用いて被写体距離Zを算出する。なお、注目被写体が人物でない場合には、ステレオ画像における公知の対応点検出技術を用いることによって左右の画像間で対応する画素データを抽出し、本実施形態の演算対象領域としてもよい。
In this embodiment, since the person A and the person B are the subject of interest, a known face detection process is performed in order to extract the corresponding face image from the left image and the right image. For example, when acquiring distance information regarding the face of the person A, the
被写体距離Zは、次式(1)で算出される。
Z=L×f/d (1)
ただし、Lはステレオ撮影時(左画像撮影位置および右画像撮影位置)の撮影レンズ21の光軸間距離(基線長)であり、fは撮影レンズ21L,Rの焦点距離、dは視差(=XL−XR)である。XLは距離計測の対象とする左画像上のデータ位置に対応し、XRは距離計測の対象とする右画像上のデータ位置に対応する。
The subject distance Z is calculated by the following equation (1).
Z = L × f / d (1)
Here, L is the distance (base line length) between the optical axes of the taking
CPU11は、顔領域21および顔領域22間の対応する画素データごとに上記演算を行い、画素単位で被写体距離Zを算出する。なお、垂直方向についても水平方向の場合と同様の演算を行うことにより、撮影されている顔に関して三次元計測情報を取得できる。また、同様の演算を顔以外の他の領域を対象に行うことにより、撮影されている胴体などに関しても三次元計測情報を取得できる。
The
図2のステップS13において、CPU11は指示されている加工内容を判定する。CPU11は、影(シャドウ)の付加・強調が指示されている場合はステップS14へ進み、陰(シェード)の付加・強調が指示されている場合はステップS15へ進み、被写体の大きさ変更が指示されている場合はステップS16へ進み、ぼかし付加が指示されている場合はステップS17へ進む。加工内容は、操作部材17からの操作信号によって指示される。
In step S13 of FIG. 2, the
<シェード付加>
ステップS15において、CPU11は画像処理回路12へ指示を送り、陰影(シェード)の付加・強調処理を行わせる。画像処理回路12は、ステレオ距離計測結果を用いて以下のようにシェードを加える。画像処理回路12は、画像の所定領域ごとに、輝度が所定値以上である画素データPの距離ZBより距離Zが長い画素データであって、画素データPの位置から所定範囲(たとえば画像において右下45°方向から±10°)内に存在する画素データを含む画像の領域の輝度を元データの半分にすることにより、注目被写体の凹凸による陰影(シェード)を加える。図5は、右画像(図3(b))に対して右下45°方向へシェード付加を施した画像を例示する図である。
<Shade addition>
In step S <b> 15, the
また、画像処理回路12は、画像の所定領域ごとに、距離Zが最短である画素データの輝度を基準Bとして、基準Bより距離Zが長い画素データほど輝度を低く下げて明暗を付ける。
Further, the
なお、撮影時の照明光によって撮影画像に陰影(シェード)が生じている場合は、図6に例示するように、輝度をさらに減じるようにするとよい。付加するシェードの状態は、操作部材17からの操作信号によって指示可能に構成してもよい。
In addition, when the shadow (shade) has arisen in the picked-up image with the illumination light at the time of imaging | photography, it is good to reduce a brightness | luminance further so that it may illustrate in FIG. The state of the shade to be added may be configured to be instructable by an operation signal from the
<シャドウ付加1>
ステップS14において、CPU11は画像処理回路12へ指示を送り、影(シャドウ)の付加・強調処理を行わせる。画像処理回路12は、注目被写体ごとに、ステレオ距離計測結果および図学の手法を用いて影を付加する。図7は、右画像(図3(b))に対して平行光線によるシャドウ付加を施した画像を例示する図である。画像処理回路12は、前景(人物A)の影が背景(人物B)にかかるように光源の方向を仮想し、当該仮想光源からの平行光線によって生じて人物B上に映る人物Aの影を付加する。
<
In step S <b> 14, the
<シャドウ付加2>
平行光源の代わりに発散光源を仮想してもよい。図8は、右画像(図3(b))に対して発散光線によるシャドウ付加を施した画像を例示する図である。画像処理回路12は、前景(人物A)の影が背景(人物B)にかかるように光源の方向を仮想し、当該仮想光源からの発散光線によって生じて人物B上に映る人物Aの影を付加する。
<Shadow addition 2>
A divergent light source may be assumed instead of a parallel light source. FIG. 8 is a diagram illustrating an image in which a shadow is added by a divergent ray to the right image (FIG. 3B). The
<シャドウ付加3>
ステレオ距離計測結果を用いず、光源を仮想することなく、形式的な影を付加してもよい。図9は、右画像(図3(b))の注目被写体に対し、形式的なシャドウ付加を施した画像を例示する図である。以上の「シャドウ付加1」〜「シャドウ付加3」のいずれの加工を行うかは、操作部材17からの操作信号によって指示されている。
<Shadow addition 3>
Formal shadows may be added without using the stereo distance measurement result and without virtualizing the light source. FIG. 9 is a diagram illustrating an image in which a formal shadow is added to the subject of interest in the right image (FIG. 3B). Which one of the processes of “
<デフォルメ1>
ステップS16において、CPU11は画像処理回路12へ指示を送り、ステレオ距離計測結果を用いて画像の奥行き(距離)に関して強調処理を行わせる。図10は、右画像(図3(b))のうち、遠景である人物Bを小さく縮小処理した画像を例示する図である。
<
In step S <b> 16, the
<デフォルメ2>
ステレオ距離計測結果および図学の透視投影手法を用いて注目被写体を変形してもよい。画像処理回路12は、注目被写体ごとに、たとえば距離Zが最短の画素データと距離Zが最長の画素データとの間の距離差を長く延ばすように、距離Zを(Z+α)に変化させた被写体像を生成する。これにより、注目被写体の奥行きが実際より深くなる。ここで、αは距離Zが長いほど大きくすると、奥行きをより強く強調できる。「デフォルメ1」および「デフォルメ2」のいずれの加工を行うかは、操作部材17からの操作信号によって指示されている。
<Deformation 2>
The subject of interest may be transformed using the stereo distance measurement result and the perspective projection method of graphics. For each subject of interest, for example, the
<ぼかし付加>
ステップS17において、CPU11は画像処理回路12へ指示を送り、ステレオ距離計測結果を用いてぼかし処理を行わせる。図11は、右画像(図3(b))のうち、遠景である人物Bを含む領域をぼかし処理した画像を例示する図である。ぼかし処理は、画像データにローパスフィルタ(LPF)処理を施して画像の高域空間周波数成分を劣化させることにより、画像のエッジを不鮮明にし、画像のコントラストを低下させるものである。
<Add blur>
In step S <b> 17, the
図2のステップS18において、CPU11は、立体像再現のための加工の組み合わせが指示されているか否かを判定する。CPU11は、他の加工処理も指示されている場合はステップS18を肯定判定してステップS13へ戻る。ステップS13へ戻る場合のCPU11は、他の加工処理を行う。図12は、右画像(図3(b))に対して、図5に例示したシェード付加と、図8に例示したシャドウ付加2と、図10に例示したぼかし付加とを組み合わせ処理した画像を例示する図である。
In step S <b> 18 of FIG. 2, the
一方、CPU11は、他の加工処理が指示されていない場合にはステップS18を否定判定し、ステップS19へ進む。
On the other hand, if other processing is not instructed, the
ステップS19において、CPU11は、画像処理後の立体像再現画像を液晶モニタ16へ表示させてステップS20へ進む。ステップS20において、CPU11は処理結果が満足されたか否かを判定する。CPU11は、操作部材17から「OK」を示す操作信号が入力された場合にステップS20を肯定判定してステップS21へ進む。CPU11は、操作部材17から「OK」を示す操作信号が入力されない場合にはステップS20を否定判定し、ステップS13へ戻る。ステップS13へ戻る場合のCPU11は、たとえば、新たな加工内容を指示する操作を促すメッセージを液晶モニタ16に表示させて、操作部材17からの操作信号を受け付ける。
In step S19, the
ステップS21において、CPU11は、画像処理後の立体像再現画像を保存するか否かを判定する。CPU11は、操作部材17から「保存」を示す操作信号が入力された場合にステップS21を肯定判定してステップS22へ進む。CPU11は、操作部材17から「保存」を示す操作信号が入力されない場合にはステップS21を否定判定し、図2による処理を終了する。ステップS22において、CPU11は、立体像再現画像のファイルを記録媒体30に保存して図2による処理を終了する。
In step S <b> 21, the
以上説明した実施形態によれば、次の作用効果が得られる。
(1)ステレオ画像を用いてステレオ距離計測をするので、画素単位で(所定の画素ブロック単位としてもよい)被写体までの距離情報が得られる。この距離情報を用いて画像の奥行きを深く見せる加工を行うので、平面的で奥行きが浅い画像の立体感を強めることができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) Since stereo distance measurement is performed using a stereo image, distance information to a subject can be obtained in pixel units (may be a predetermined pixel block unit). Since the processing for making the depth of the image deeper is performed using this distance information, it is possible to enhance the stereoscopic effect of the flat and shallow image.
(2)たとえば人物A(物体)に関して加工を行うことにより、当該物体の立体感を強めることができる。 (2) For example, by processing the person A (object), the three-dimensional effect of the object can be enhanced.
(3)取得した距離情報を使い、透視投影図法を用いて物体の形状を変形することにより、物体についての奥行き感を強めることができる。 (3) By using the acquired distance information and deforming the shape of the object using the perspective projection method, it is possible to enhance the sense of depth about the object.
(4)取得した距離情報を使い、人物A(物体)の凹凸に起因するシェード付加を行うことにより、当該物体の立体感を強めることができる。 (4) By using the acquired distance information and adding a shade due to the unevenness of the person A (object), the stereoscopic effect of the object can be enhanced.
(5)取得した距離情報を使い、人物A(物体)にシャドウ付加を行うことにより、当該物体の立体感を強めることができる。 (5) By using the acquired distance information and adding a shadow to the person A (object), the stereoscopic effect of the object can be enhanced.
(6)取得した距離情報を使い、人物A(物体)のシャドウが人物B(他の物体)にかかるように付加することにより、当該画像の立体感を強めることができる。 (6) By using the acquired distance information and adding the shadow of the person A (object) to the person B (other object), the stereoscopic effect of the image can be enhanced.
(7)取得した距離情報を使い、人物A(物体)と人物B(他の物体)との距離を実際より深く加工することにより、当該画像の立体感を強めることができる。 (7) By using the acquired distance information and processing the distance between the person A (object) and the person B (other object) deeper than the actual distance, the stereoscopic effect of the image can be enhanced.
(8)取得した距離情報を使い、遠方の人物B(物体)を実際より小さく縮小加工することにより、当該画像の立体感を強めることができる。 (8) The stereoscopic effect of the image can be enhanced by using the acquired distance information and reducing the far person B (object) to be smaller than the actual size.
(9)取得した距離情報を使い、遠方の人物B(物体)の像をぼかす加工をすることにより、当該画像の立体感を強めることができる。 (9) Using the acquired distance information, the stereoscopic effect of the image can be enhanced by processing the image of the distant person B (object) to be blurred.
(変形例1)
シェード付加の説明において画像の対象領域の輝度を低くする場合を例示したが、シャドウ付加の場合と同様に対象領域を塗りつぶすようにしてもよい。これにより、被写体の凸凹を強く表現することができる。また、対象領域にラインを引いてもよい。
(Modification 1)
In the description of the shade addition, the case where the luminance of the target area of the image is lowered is illustrated, but the target area may be filled in the same manner as in the case of adding the shadow. Thereby, the unevenness of the subject can be expressed strongly. Further, a line may be drawn in the target area.
(変形例2)
また、シェード付加において、対象領域の範囲をステレオ距離計測結果を用いて決定される実際の範囲より広げてもよい。これにより、被写体表面の実際の凸凹より強調させることができる。
(Modification 2)
In addition, in the shade addition, the range of the target area may be wider than the actual range determined using the stereo distance measurement result. Thereby, it can emphasize from the actual unevenness | corrugation on the to-be-photographed object surface.
(変形例3)
シェード付加の説明において、シェード付加の方向を画像の右下45°方向±10°の範囲としたが、この付加方向は適宜変更して構わない。
(Modification 3)
In the description of the shade addition, the shade addition direction is in the range of the lower right 45 ° direction ± 10 ° of the image, but this addition direction may be changed as appropriate.
(変形例4)
シャドウ付加1〜3の説明において画像の対象領域を塗りつぶす場合を例示したが、対象領域にラインを引くようにしてもよい。これにより、塗りつぶす場合に比べて影をソフトに表現できる。
(Modification 4)
In the description of the
(変形例5)
シャドウ付加1および2では、前景(人物A)の影が背景(人物B)にかかるように光源の方向および高さを仮想したが、他の位置に仮想光源を設けてもよい。また、仮想光源を複数設け、それぞれの光源による影を付加するようにしてもよい。
(Modification 5)
In the
(変形例6)
デフォルメの他の例として、室内で撮影された画像の場合は壁に設けられている構造物(たとえば、窓、扉など)を小さく縮小処理してもよい。また、縮小処理した構造物を実際より上方に移動させれば、画像の奥行きをさらに表現できる。
(Modification 6)
As another example of deformation, in the case of an image taken indoors, a structure (for example, a window or a door) provided on the wall may be reduced and reduced. Further, if the reduced structure is moved above the actual depth, the depth of the image can be further expressed.
(変形例7)
GPSシステムによる測位情報が得られる環境で屋外撮影した画像の場合、シェード付加の方向や、シャドウを付加する場合の仮想光源の方向を決定する際に測位情報を利用してもよい。この場合のCPU11は、測位情報に基づいて特定される太陽の方向および高度に合わせて仮想光源の位置を決める。このようにすれば、自然光による影、陰影と画像処理によって付加されるシャドウ、シェードの向きを揃えることができる。
(Modification 7)
In the case of an image taken outdoors in an environment where positioning information by the GPS system can be obtained, the positioning information may be used when determining the direction of shade addition and the direction of the virtual light source when adding a shadow. In this case, the
(変形例8)
以上の説明では、立体像再現のための加工をステレオ画像を構成する右画像に対して施す例を説明した。この代わりに、左画像に対して施しても、両画像に対して施しても構わない。
(Modification 8)
In the above description, an example in which processing for reproducing a stereoscopic image is performed on the right image constituting the stereo image has been described. Instead, it may be applied to the left image or both images.
(変形例9)
ステレオ画像が二眼の電子カメラ1によって撮影・記録される例を説明したが、単眼のカメラによって撮影位置を変えて撮影したステレオ画像や、三眼カメラによって撮影された画像に対しても同様の加工処理を行うようにしてよい。
(Modification 9)
Although an example in which a stereo image is shot and recorded by the two-lens
(変形例10)
撮影画像の分割領域ごとに測距情報(たとえば、フォーカス調節情報)を有する画像データの場合は、ステレオ画像によらなくても本発明を適用できる。この場合の電子カメラ1は、撮影画面内の異なる複数のフォーカス検出領域のそれぞれにおいて撮影レンズ21L、Rによる焦点位置の調節状態(デフォーカス量)を算出する。デフォーカス量は、フォーカス検出領域に存在する物体(被写体)までの撮影距離情報として用いる。撮影画像とともに、各フォーカス検出領域におけるデフォーカス量情報を関連づけて保存しておくと、撮影画像に対して上記立体像再現処理を施すことができる。
(Modification 10)
In the case of image data having distance measurement information (for example, focus adjustment information) for each divided region of the captured image, the present invention can be applied without using a stereo image. In this case, the
(変形例11)
撮影レンズ21L、Rを構成するフォーカスレンズ(不図示)を至近端から無限遠端に移動させながら、異なるフォーカス調節状態の撮影画像を順次取得する場合にも、ステレオ画像によらずに本発明を適用できる。この場合、各撮影画像とともに測距情報(たとえば、フォーカスレンズの位置情報)を関連づけて保存しておく。撮影画面内の物体(被写体)は、いずれかの画像においてピントが合った画像(ピントが外れている場合に比べて当該物体の領域のコントラストが高い)が得られので、ピントが合った撮影画像に対応する測距情報を、当該物体までの撮影距離情報として用いる。
(Modification 11)
Even in the case where captured images in different focus adjustment states are sequentially acquired while moving a focus lens (not shown) constituting the photographic lenses 21L and 21R from the closest end to the infinity end, the present invention is used regardless of the stereo image. Can be applied. In this case, distance measurement information (for example, focus lens position information) is stored in association with each captured image. The object (subject) in the shooting screen is an in-focus image in any of the images (the contrast of the object area is higher than when the object is out of focus). Is used as shooting distance information to the object.
(変形例12)
撮影画面内の被写体までの距離情報を変更し、変更後の距離情報に応じてそれぞれの被写体を再配置して、画像の立体感を強調してもよい。例えば図4に示すように被写体として人物A、人物Bがいる場合に、電子カメラから人物Bまでの距離を実際に電子カメラで測距した距離よりも長く変更する。具体的には、画像データと共に保存されている人物Bまでの距離情報を、より長い距離情報に変更する。次に変更後の距離情報を基に人物Bを画像中で再配置すると、遠景である人物Bが縮小処理された図10と同様の画像を得ることができる。
(Modification 12)
The distance information to the subject in the shooting screen may be changed, and each subject may be rearranged according to the changed distance information to enhance the stereoscopic effect of the image. For example, as shown in FIG. 4, when there are a person A and a person B as subjects, the distance from the electronic camera to the person B is changed to be longer than the distance actually measured by the electronic camera. Specifically, the distance information to the person B stored together with the image data is changed to longer distance information. Next, when the person B is rearranged in the image based on the changed distance information, an image similar to that in FIG. 10 in which the person B as a distant view is reduced can be obtained.
このように距離情報を変更し、変更した距離に応じて被写体を再配置することによっても、画像の立体感を強調することができる。なお、距離情報を変更する場合、1つの画像の中に複数の被写体が存在する場合に、電子カメラから被写体までの距離が短い場合には距離を僅かに長くし、被写体までの距離が長くなるにしたがって距離の変更量を大きくするようにしてもかまわない。このようにすることによって画像全体で立体感を強調することができる。 The stereoscopic effect of the image can also be enhanced by changing the distance information and rearranging the subject according to the changed distance. When changing the distance information, when there are a plurality of subjects in one image and the distance from the electronic camera to the subject is short, the distance is slightly increased and the distance to the subject is increased. The distance change amount may be increased according to the above. By doing so, the stereoscopic effect can be enhanced in the entire image.
(変形例13)
電子カメラ1内で立体像再現を実行する例を説明したが、図2による処理を行う画像処理プログラムを図13に示すコンピュータ装置10に実行させることにより、画像処理装置を構成してもよい。画像処理プログラムをパーソナルコンピュータ10に取込んで使用する場合には、パーソナルコンピュータ10のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像処理装置として使用する。
(Modification 13)
Although an example in which stereoscopic image reproduction is executed in the
パーソナルコンピュータ10に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体104をパーソナルコンピュータ10にセットして行ってもよいし、ネットワークなどの通信回線101を経由する方法でパーソナルコンピュータ10へローディングしてもよい。通信回線101を経由する場合は、通信回線101に接続されたサーバー(コンピュータ)102のハードディスク装置103などにプログラムを格納しておく。画像処理プログラムは、記録媒体104や通信回線101を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。
The loading of the program to the
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。 The above description is merely an example, and is not limited to the configuration of the above embodiment.
1…電子カメラ
11…CPU
12…画像処理回路
16…液晶モニタ
17…操作部材
21L、21R…撮影レンズ
22L、22R…撮像素子
30…記録媒体
A、B…人物
1 ...
DESCRIPTION OF
Claims (17)
前記距離情報に基づいて、前記画像の立体感を変化させるように前記画像データを修正する修正部とを有することを特徴とする画像処理装置。 An input unit for inputting image data having distance information to the subject;
An image processing apparatus comprising: a correction unit that corrects the image data so as to change a stereoscopic effect of the image based on the distance information.
前記修正部は、前記画像の奥行きを深くするように前記画像データを修正することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image processing apparatus, wherein the correction unit corrects the image data so as to increase a depth of the image.
前記修正部は、前記画像に含まれる被写体の少なくとも一部の奥行きを深くするように前記画像データを修正することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image processing apparatus, wherein the correction unit corrects the image data so as to deepen at least a part of a subject included in the image.
前記修正部は、透視投影図法を用いて前記被写体の形状を修正することを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
The image processing apparatus, wherein the correction unit corrects the shape of the subject using a perspective projection method.
前記修正部は、前記被写体の凹凸による陰影を付加することを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
The image processing apparatus according to claim 1, wherein the correction unit adds a shadow due to the unevenness of the subject.
前記修正部は、前記被写体の影を付加することを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
The image processing apparatus, wherein the correction unit adds a shadow of the subject.
前記画像は複数の被写体を含み、前記画像データは各被写体までの距離情報を有し、
前記修正部は、一方の被写体の影が他方の被写体にかかるように前記影を付加することを特徴とする画像処理装置。 The image processing apparatus according to claim 6.
The image includes a plurality of subjects, the image data has distance information to each subject,
The image processing apparatus, wherein the correction unit adds the shadow so that the shadow of one subject is applied to the other subject.
前記画像は複数の被写体を含み、前記画像データは各被写体までの距離情報を有し、
前記修正部は、前記複数の被写体間の奥行きを深く修正することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The image includes a plurality of subjects, the image data has distance information to each subject,
The image processing apparatus, wherein the correction unit corrects a depth between the plurality of subjects deeply.
前記修正部は、遠方に位置する被写体の形状を縮小することを特徴とする画像処理装置。 The image processing apparatus according to claim 8.
The image processing apparatus, wherein the correction unit reduces the shape of a subject located far away.
前記修正部は、遠方に位置する被写体に画像ぼけを付加することを特徴とする画像処理装置。 The image processing apparatus according to claim 8.
The image processing apparatus according to claim 1, wherein the correction unit adds image blur to a subject located far away.
前記被写体までの距離情報の少なくとも一部を変換する変換部を有し、
前記修正部は、前記変換後の距離情報に応じて前記画像データを修正することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
A conversion unit that converts at least part of the distance information to the subject;
The correction unit corrects the image data in accordance with the converted distance information.
前記変換部は、前記距離情報を距離が大きくなるように変換することを特徴とする画像処理装置。 The image processing apparatus according to claim 11.
The image processing apparatus, wherein the conversion unit converts the distance information so that the distance becomes large.
前記変換部は、前記距離情報が長くなるにしたがって、距離の変換量を大きくすることを特徴とする画像処理装置。 The image processing apparatus according to claim 12.
The image processing apparatus, wherein the conversion unit increases a distance conversion amount as the distance information becomes longer.
前記入力部は、ステレオ画像データを入力することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 13,
The image processing apparatus, wherein the input unit inputs stereo image data.
前記入力部は、画像の分割領域ごとにフォーカス調節情報を有する画像データを入力することを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 13,
The image processing apparatus, wherein the input unit inputs image data having focus adjustment information for each divided region of the image.
画像データが有する距離情報を用いて当該画像に含まれる被写体までの距離を算出する処理と、
被写体までの距離に基づいて画像の立体感を変化させるように画像データを修正する処理とをコンピュータ装置に実行させることを特徴とする画像処理プログラム。 Processing to input image data;
Processing for calculating the distance to the subject included in the image using the distance information included in the image data;
An image processing program for causing a computer device to execute a process of correcting image data so as to change a stereoscopic effect of an image based on a distance to a subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007217219A JP2009053748A (en) | 2007-08-23 | 2007-08-23 | Image processing apparatus, image processing program, and camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007217219A JP2009053748A (en) | 2007-08-23 | 2007-08-23 | Image processing apparatus, image processing program, and camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009053748A true JP2009053748A (en) | 2009-03-12 |
Family
ID=40504813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007217219A Pending JP2009053748A (en) | 2007-08-23 | 2007-08-23 | Image processing apparatus, image processing program, and camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009053748A (en) |
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011010128A (en) * | 2009-06-26 | 2011-01-13 | Canon Inc | Image reproducing apparatus, image capturing apparatus, and control method therefor |
JP2011077900A (en) * | 2009-09-30 | 2011-04-14 | Fujifilm Corp | Image processing apparatus, camera, and image processing method |
JP2011119926A (en) * | 2009-12-02 | 2011-06-16 | Sharp Corp | Video processing apparatus, video processing method and computer program |
JP2011188004A (en) * | 2010-03-04 | 2011-09-22 | Victor Co Of Japan Ltd | Three-dimensional video imaging device, three-dimensional video image processing apparatus and three-dimensional video imaging method |
WO2012032778A1 (en) * | 2010-09-08 | 2012-03-15 | パナソニック株式会社 | Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program |
JP2012070305A (en) * | 2010-09-27 | 2012-04-05 | Toshiba Corp | Image processor |
JP2012100116A (en) * | 2010-11-02 | 2012-05-24 | Sony Corp | Display processing device, display processing method, and program |
WO2012095914A1 (en) * | 2011-01-13 | 2012-07-19 | パナソニック株式会社 | Stereoscopic image processing device, stereoscopic image processing method, and program |
JP2012142779A (en) * | 2010-12-28 | 2012-07-26 | Olympus Imaging Corp | Imaging apparatus and imaging program |
JP2012205148A (en) * | 2011-03-25 | 2012-10-22 | Kyocera Corp | Electronic apparatus |
JP2013157671A (en) * | 2012-01-26 | 2013-08-15 | Sony Corp | Image processing device, image processing method, program, terminal device, and image processing system |
JP2014014076A (en) * | 2012-07-03 | 2014-01-23 | Woodman Labs Inc | Image blur based on 3d depth information |
JP2014042238A (en) * | 2012-08-23 | 2014-03-06 | Stmicroelectronics (Canada) Inc | Apparatus and method for depth-based image scaling of 3d visual content |
WO2014041860A1 (en) * | 2012-09-14 | 2014-03-20 | ソニー株式会社 | Image-processing device, image-processing method, and program |
US8781215B2 (en) | 2011-02-07 | 2014-07-15 | Samsung Electronics Co., Ltd. | Image processing apparatus and control method thereof |
US9113074B2 (en) | 2010-12-22 | 2015-08-18 | Olympus Corporation | Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image |
JP2015173457A (en) * | 2015-04-16 | 2015-10-01 | 株式会社ニコン | Image processing device, image processing method, and program |
JP2016149772A (en) * | 2016-03-01 | 2016-08-18 | 京セラ株式会社 | Electronic apparatus |
US9787862B1 (en) | 2016-01-19 | 2017-10-10 | Gopro, Inc. | Apparatus and methods for generating content proxy |
US9792502B2 (en) | 2014-07-23 | 2017-10-17 | Gopro, Inc. | Generating video summaries for a video using video summary templates |
US9838730B1 (en) | 2016-04-07 | 2017-12-05 | Gopro, Inc. | Systems and methods for audio track selection in video editing |
US9871994B1 (en) | 2016-01-19 | 2018-01-16 | Gopro, Inc. | Apparatus and methods for providing content context using session metadata |
US9916863B1 (en) | 2017-02-24 | 2018-03-13 | Gopro, Inc. | Systems and methods for editing videos based on shakiness measures |
US9922682B1 (en) | 2016-06-15 | 2018-03-20 | Gopro, Inc. | Systems and methods for organizing video files |
US9953679B1 (en) | 2016-05-24 | 2018-04-24 | Gopro, Inc. | Systems and methods for generating a time lapse video |
US9953224B1 (en) | 2016-08-23 | 2018-04-24 | Gopro, Inc. | Systems and methods for generating a video summary |
US9967515B1 (en) | 2016-06-15 | 2018-05-08 | Gopro, Inc. | Systems and methods for bidirectional speed ramping |
US9972066B1 (en) | 2016-03-16 | 2018-05-15 | Gopro, Inc. | Systems and methods for providing variable image projection for spherical visual content |
US10002641B1 (en) | 2016-10-17 | 2018-06-19 | Gopro, Inc. | Systems and methods for determining highlight segment sets |
WO2018116580A1 (en) * | 2016-12-19 | 2018-06-28 | ソニー株式会社 | Information processing device, information processing method, and program |
US10044972B1 (en) | 2016-09-30 | 2018-08-07 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US10045120B2 (en) | 2016-06-20 | 2018-08-07 | Gopro, Inc. | Associating audio with three-dimensional objects in videos |
WO2018155235A1 (en) * | 2017-02-24 | 2018-08-30 | ソニー株式会社 | Control device, control method, program, and projection system |
US10078644B1 (en) | 2016-01-19 | 2018-09-18 | Gopro, Inc. | Apparatus and methods for manipulating multicamera content using content proxy |
US10096341B2 (en) | 2015-01-05 | 2018-10-09 | Gopro, Inc. | Media identifier generation for camera-captured media |
US10129464B1 (en) | 2016-02-18 | 2018-11-13 | Gopro, Inc. | User interface for creating composite images |
JP2019003694A (en) * | 2018-09-28 | 2019-01-10 | キヤノン株式会社 | Image processing apparatus, control method of the same, and program |
US10192585B1 (en) | 2014-08-20 | 2019-01-29 | Gopro, Inc. | Scene and activity identification in video summary generation based on motion detected in a video |
JP2019037004A (en) * | 2018-11-26 | 2019-03-07 | キヤノン株式会社 | Image processing apparatus, control method thereof, and program |
US10229719B1 (en) | 2016-05-09 | 2019-03-12 | Gopro, Inc. | Systems and methods for generating highlights for a video |
US10268898B1 (en) | 2016-09-21 | 2019-04-23 | Gopro, Inc. | Systems and methods for determining a sample frame order for analyzing a video via segments |
US10282632B1 (en) | 2016-09-21 | 2019-05-07 | Gopro, Inc. | Systems and methods for determining a sample frame order for analyzing a video |
US10338955B1 (en) | 2015-10-22 | 2019-07-02 | Gopro, Inc. | Systems and methods that effectuate transmission of workflow between computing platforms |
US10339443B1 (en) | 2017-02-24 | 2019-07-02 | Gopro, Inc. | Systems and methods for processing convolutional neural network operations using textures |
US10360663B1 (en) | 2017-04-07 | 2019-07-23 | Gopro, Inc. | Systems and methods to create a dynamic blur effect in visual content |
US10395119B1 (en) | 2016-08-10 | 2019-08-27 | Gopro, Inc. | Systems and methods for determining activities performed during video capture |
US10395122B1 (en) | 2017-05-12 | 2019-08-27 | Gopro, Inc. | Systems and methods for identifying moments in videos |
US10397415B1 (en) | 2016-09-30 | 2019-08-27 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US10402698B1 (en) | 2017-07-10 | 2019-09-03 | Gopro, Inc. | Systems and methods for identifying interesting moments within videos |
US10402938B1 (en) | 2016-03-31 | 2019-09-03 | Gopro, Inc. | Systems and methods for modifying image distortion (curvature) for viewing distance in post capture |
US10614114B1 (en) | 2017-07-10 | 2020-04-07 | Gopro, Inc. | Systems and methods for creating compilations based on hierarchical clustering |
JP2020512089A (en) * | 2017-03-24 | 2020-04-23 | シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Virtual shadows that enhance depth perception |
JP2020155827A (en) * | 2019-03-18 | 2020-09-24 | 本田技研工業株式会社 | Visible device and visible method |
US11106988B2 (en) | 2016-10-06 | 2021-08-31 | Gopro, Inc. | Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle |
WO2021245930A1 (en) * | 2020-06-05 | 2021-12-09 | 日本電信電話株式会社 | Image processing device, image processing method, and image processing program |
JP2022504023A (en) * | 2018-10-05 | 2022-01-13 | ベステル エレクトロニク サナイー ベ ティカレト エー.エス. | Image pair correction method and equipment |
-
2007
- 2007-08-23 JP JP2007217219A patent/JP2009053748A/en active Pending
Cited By (102)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011010128A (en) * | 2009-06-26 | 2011-01-13 | Canon Inc | Image reproducing apparatus, image capturing apparatus, and control method therefor |
US8836760B2 (en) | 2009-06-26 | 2014-09-16 | Canon Kabushiki Kaisha | Image reproducing apparatus, image capturing apparatus, and control method therefor |
JP2011077900A (en) * | 2009-09-30 | 2011-04-14 | Fujifilm Corp | Image processing apparatus, camera, and image processing method |
JP2011119926A (en) * | 2009-12-02 | 2011-06-16 | Sharp Corp | Video processing apparatus, video processing method and computer program |
JP2011188004A (en) * | 2010-03-04 | 2011-09-22 | Victor Co Of Japan Ltd | Three-dimensional video imaging device, three-dimensional video image processing apparatus and three-dimensional video imaging method |
WO2012032778A1 (en) * | 2010-09-08 | 2012-03-15 | パナソニック株式会社 | Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program |
US9240072B2 (en) | 2010-09-08 | 2016-01-19 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program |
US9143755B2 (en) | 2010-09-27 | 2015-09-22 | Kabushiki Kaisha Toshiba | Image processing device |
JP2012070305A (en) * | 2010-09-27 | 2012-04-05 | Toshiba Corp | Image processor |
JP2012100116A (en) * | 2010-11-02 | 2012-05-24 | Sony Corp | Display processing device, display processing method, and program |
CN102572466A (en) * | 2010-11-02 | 2012-07-11 | 索尼公司 | Display processing apparatus, display processing method, and display processing program |
US9113074B2 (en) | 2010-12-22 | 2015-08-18 | Olympus Corporation | Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image |
JP2012142779A (en) * | 2010-12-28 | 2012-07-26 | Olympus Imaging Corp | Imaging apparatus and imaging program |
WO2012095914A1 (en) * | 2011-01-13 | 2012-07-19 | パナソニック株式会社 | Stereoscopic image processing device, stereoscopic image processing method, and program |
US9064331B2 (en) | 2011-01-13 | 2015-06-23 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional image processing apparatus, three-dimensional image processing method, and program |
JP5909704B2 (en) * | 2011-01-13 | 2016-04-27 | パナソニックIpマネジメント株式会社 | Stereoscopic image processing apparatus, stereoscopic image processing method, and program |
US8781215B2 (en) | 2011-02-07 | 2014-07-15 | Samsung Electronics Co., Ltd. | Image processing apparatus and control method thereof |
US9462259B2 (en) | 2011-03-25 | 2016-10-04 | Kyocera Corporation | Electronic device |
JP2012205148A (en) * | 2011-03-25 | 2012-10-22 | Kyocera Corp | Electronic apparatus |
US9317957B2 (en) | 2012-01-26 | 2016-04-19 | Sony Corporation | Enhancement of stereoscopic effect of an image through use of modified depth information |
JP2013157671A (en) * | 2012-01-26 | 2013-08-15 | Sony Corp | Image processing device, image processing method, program, terminal device, and image processing system |
US9185387B2 (en) | 2012-07-03 | 2015-11-10 | Gopro, Inc. | Image blur based on 3D depth information |
US10015469B2 (en) | 2012-07-03 | 2018-07-03 | Gopro, Inc. | Image blur based on 3D depth information |
JP2014014076A (en) * | 2012-07-03 | 2014-01-23 | Woodman Labs Inc | Image blur based on 3d depth information |
EP2683169A3 (en) * | 2012-07-03 | 2017-04-12 | GoPro, Inc. | Image blur based on 3D depth information |
US9838669B2 (en) | 2012-08-23 | 2017-12-05 | Stmicroelectronics (Canada), Inc. | Apparatus and method for depth-based image scaling of 3D visual content |
JP2014042238A (en) * | 2012-08-23 | 2014-03-06 | Stmicroelectronics (Canada) Inc | Apparatus and method for depth-based image scaling of 3d visual content |
CN104620283A (en) * | 2012-09-14 | 2015-05-13 | 索尼公司 | Image-processing device, image-processing method, and program |
WO2014041860A1 (en) * | 2012-09-14 | 2014-03-20 | ソニー株式会社 | Image-processing device, image-processing method, and program |
JPWO2014041860A1 (en) * | 2012-09-14 | 2016-08-18 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
US9600888B2 (en) | 2012-09-14 | 2017-03-21 | Sony Corporation | Image processing device, image processing method, and program |
US9792502B2 (en) | 2014-07-23 | 2017-10-17 | Gopro, Inc. | Generating video summaries for a video using video summary templates |
US11069380B2 (en) | 2014-07-23 | 2021-07-20 | Gopro, Inc. | Scene and activity identification in video summary generation |
US11776579B2 (en) | 2014-07-23 | 2023-10-03 | Gopro, Inc. | Scene and activity identification in video summary generation |
US10776629B2 (en) | 2014-07-23 | 2020-09-15 | Gopro, Inc. | Scene and activity identification in video summary generation |
US10339975B2 (en) | 2014-07-23 | 2019-07-02 | Gopro, Inc. | Voice-based video tagging |
US10074013B2 (en) | 2014-07-23 | 2018-09-11 | Gopro, Inc. | Scene and activity identification in video summary generation |
US10643663B2 (en) | 2014-08-20 | 2020-05-05 | Gopro, Inc. | Scene and activity identification in video summary generation based on motion detected in a video |
US10262695B2 (en) | 2014-08-20 | 2019-04-16 | Gopro, Inc. | Scene and activity identification in video summary generation |
US10192585B1 (en) | 2014-08-20 | 2019-01-29 | Gopro, Inc. | Scene and activity identification in video summary generation based on motion detected in a video |
US10559324B2 (en) | 2015-01-05 | 2020-02-11 | Gopro, Inc. | Media identifier generation for camera-captured media |
US10096341B2 (en) | 2015-01-05 | 2018-10-09 | Gopro, Inc. | Media identifier generation for camera-captured media |
JP2015173457A (en) * | 2015-04-16 | 2015-10-01 | 株式会社ニコン | Image processing device, image processing method, and program |
US10338955B1 (en) | 2015-10-22 | 2019-07-02 | Gopro, Inc. | Systems and methods that effectuate transmission of workflow between computing platforms |
US10078644B1 (en) | 2016-01-19 | 2018-09-18 | Gopro, Inc. | Apparatus and methods for manipulating multicamera content using content proxy |
US9871994B1 (en) | 2016-01-19 | 2018-01-16 | Gopro, Inc. | Apparatus and methods for providing content context using session metadata |
US10402445B2 (en) | 2016-01-19 | 2019-09-03 | Gopro, Inc. | Apparatus and methods for manipulating multicamera content using content proxy |
US9787862B1 (en) | 2016-01-19 | 2017-10-10 | Gopro, Inc. | Apparatus and methods for generating content proxy |
US10129464B1 (en) | 2016-02-18 | 2018-11-13 | Gopro, Inc. | User interface for creating composite images |
JP2016149772A (en) * | 2016-03-01 | 2016-08-18 | 京セラ株式会社 | Electronic apparatus |
US10740869B2 (en) | 2016-03-16 | 2020-08-11 | Gopro, Inc. | Systems and methods for providing variable image projection for spherical visual content |
US9972066B1 (en) | 2016-03-16 | 2018-05-15 | Gopro, Inc. | Systems and methods for providing variable image projection for spherical visual content |
US11398008B2 (en) | 2016-03-31 | 2022-07-26 | Gopro, Inc. | Systems and methods for modifying image distortion (curvature) for viewing distance in post capture |
US10402938B1 (en) | 2016-03-31 | 2019-09-03 | Gopro, Inc. | Systems and methods for modifying image distortion (curvature) for viewing distance in post capture |
US10817976B2 (en) | 2016-03-31 | 2020-10-27 | Gopro, Inc. | Systems and methods for modifying image distortion (curvature) for viewing distance in post capture |
US9838730B1 (en) | 2016-04-07 | 2017-12-05 | Gopro, Inc. | Systems and methods for audio track selection in video editing |
US10341712B2 (en) | 2016-04-07 | 2019-07-02 | Gopro, Inc. | Systems and methods for audio track selection in video editing |
US10229719B1 (en) | 2016-05-09 | 2019-03-12 | Gopro, Inc. | Systems and methods for generating highlights for a video |
US9953679B1 (en) | 2016-05-24 | 2018-04-24 | Gopro, Inc. | Systems and methods for generating a time lapse video |
US9967515B1 (en) | 2016-06-15 | 2018-05-08 | Gopro, Inc. | Systems and methods for bidirectional speed ramping |
US10742924B2 (en) | 2016-06-15 | 2020-08-11 | Gopro, Inc. | Systems and methods for bidirectional speed ramping |
US11223795B2 (en) | 2016-06-15 | 2022-01-11 | Gopro, Inc. | Systems and methods for bidirectional speed ramping |
US9922682B1 (en) | 2016-06-15 | 2018-03-20 | Gopro, Inc. | Systems and methods for organizing video files |
US10045120B2 (en) | 2016-06-20 | 2018-08-07 | Gopro, Inc. | Associating audio with three-dimensional objects in videos |
US10395119B1 (en) | 2016-08-10 | 2019-08-27 | Gopro, Inc. | Systems and methods for determining activities performed during video capture |
US10726272B2 (en) | 2016-08-23 | 2020-07-28 | Go Pro, Inc. | Systems and methods for generating a video summary |
US11062143B2 (en) | 2016-08-23 | 2021-07-13 | Gopro, Inc. | Systems and methods for generating a video summary |
US9953224B1 (en) | 2016-08-23 | 2018-04-24 | Gopro, Inc. | Systems and methods for generating a video summary |
US11508154B2 (en) | 2016-08-23 | 2022-11-22 | Gopro, Inc. | Systems and methods for generating a video summary |
US10282632B1 (en) | 2016-09-21 | 2019-05-07 | Gopro, Inc. | Systems and methods for determining a sample frame order for analyzing a video |
US10268898B1 (en) | 2016-09-21 | 2019-04-23 | Gopro, Inc. | Systems and methods for determining a sample frame order for analyzing a video via segments |
US10044972B1 (en) | 2016-09-30 | 2018-08-07 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US10560591B2 (en) | 2016-09-30 | 2020-02-11 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US10560655B2 (en) | 2016-09-30 | 2020-02-11 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US10397415B1 (en) | 2016-09-30 | 2019-08-27 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US11106988B2 (en) | 2016-10-06 | 2021-08-31 | Gopro, Inc. | Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle |
US10643661B2 (en) | 2016-10-17 | 2020-05-05 | Gopro, Inc. | Systems and methods for determining highlight segment sets |
US10002641B1 (en) | 2016-10-17 | 2018-06-19 | Gopro, Inc. | Systems and methods for determining highlight segment sets |
US10923154B2 (en) | 2016-10-17 | 2021-02-16 | Gopro, Inc. | Systems and methods for determining highlight segment sets |
US11106050B2 (en) | 2016-12-19 | 2021-08-31 | Sony Corporation | Information processing apparatus, and information processing method |
JPWO2018116580A1 (en) * | 2016-12-19 | 2019-11-07 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP7099326B2 (en) | 2016-12-19 | 2022-07-12 | ソニーグループ株式会社 | Information processing equipment, information processing methods, and programs |
WO2018116580A1 (en) * | 2016-12-19 | 2018-06-28 | ソニー株式会社 | Information processing device, information processing method, and program |
US11924402B2 (en) | 2016-12-19 | 2024-03-05 | Sony Group Corporation | Information processing apparatus and information processing method |
US9916863B1 (en) | 2017-02-24 | 2018-03-13 | Gopro, Inc. | Systems and methods for editing videos based on shakiness measures |
US10776689B2 (en) | 2017-02-24 | 2020-09-15 | Gopro, Inc. | Systems and methods for processing convolutional neural network operations using textures |
WO2018155235A1 (en) * | 2017-02-24 | 2018-08-30 | ソニー株式会社 | Control device, control method, program, and projection system |
US10339443B1 (en) | 2017-02-24 | 2019-07-02 | Gopro, Inc. | Systems and methods for processing convolutional neural network operations using textures |
JP2020512089A (en) * | 2017-03-24 | 2020-04-23 | シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | Virtual shadows that enhance depth perception |
US10817992B2 (en) | 2017-04-07 | 2020-10-27 | Gopro, Inc. | Systems and methods to create a dynamic blur effect in visual content |
US10360663B1 (en) | 2017-04-07 | 2019-07-23 | Gopro, Inc. | Systems and methods to create a dynamic blur effect in visual content |
US10817726B2 (en) | 2017-05-12 | 2020-10-27 | Gopro, Inc. | Systems and methods for identifying moments in videos |
US10614315B2 (en) | 2017-05-12 | 2020-04-07 | Gopro, Inc. | Systems and methods for identifying moments in videos |
US10395122B1 (en) | 2017-05-12 | 2019-08-27 | Gopro, Inc. | Systems and methods for identifying moments in videos |
US10614114B1 (en) | 2017-07-10 | 2020-04-07 | Gopro, Inc. | Systems and methods for creating compilations based on hierarchical clustering |
US10402698B1 (en) | 2017-07-10 | 2019-09-03 | Gopro, Inc. | Systems and methods for identifying interesting moments within videos |
JP2019003694A (en) * | 2018-09-28 | 2019-01-10 | キヤノン株式会社 | Image processing apparatus, control method of the same, and program |
JP2022504023A (en) * | 2018-10-05 | 2022-01-13 | ベステル エレクトロニク サナイー ベ ティカレト エー.エス. | Image pair correction method and equipment |
US11595629B2 (en) | 2018-10-05 | 2023-02-28 | Vestel Elektronik Sanayi Ve Ticaret A.S. | Method for modifying steroscopic pairs of images and apparatus |
JP2019037004A (en) * | 2018-11-26 | 2019-03-07 | キヤノン株式会社 | Image processing apparatus, control method thereof, and program |
JP2020155827A (en) * | 2019-03-18 | 2020-09-24 | 本田技研工業株式会社 | Visible device and visible method |
WO2021245930A1 (en) * | 2020-06-05 | 2021-12-09 | 日本電信電話株式会社 | Image processing device, image processing method, and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009053748A (en) | Image processing apparatus, image processing program, and camera | |
JP5390707B2 (en) | Stereoscopic panorama image synthesis apparatus, imaging apparatus, stereo panorama image synthesis method, recording medium, and computer program | |
US7825969B2 (en) | Image stabilization using multi-exposure pattern | |
US8792019B2 (en) | Video creation device, video creation method and non-transitory computer-readable storage medium | |
US8717455B2 (en) | Image processing apparatus and image processing method | |
US9697589B2 (en) | Signal processing apparatus, imaging apparatus, signal processing method and program for correcting deviation of blurring in images | |
JP5126344B2 (en) | Imaging apparatus, imaging method, and program | |
JP4019200B2 (en) | Camera with image display | |
JP5186021B2 (en) | Imaging apparatus, image processing apparatus, and imaging method | |
JP2008236534A (en) | Digital camera, and information display method and information display control program | |
JP2009212899A (en) | Imaging device | |
US8860840B2 (en) | Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus | |
JP5936358B2 (en) | Image display device, image display method, imaging device and control method thereof, program, and storage medium storing the same | |
JP2007104248A (en) | Electronic camera and program | |
JP2017143354A (en) | Image processing apparatus and image processing method | |
JP2010141609A (en) | Imaging apparatus | |
JP2023033355A (en) | Image processing device and control method therefor | |
JP5387341B2 (en) | Imaging device | |
JP2013175805A (en) | Display device and image pickup device | |
JP2005229280A (en) | Image processing apparatus and method, and program | |
JP2012142729A (en) | Camera | |
JP2011223399A (en) | Camera | |
JP2009139423A (en) | Imaging apparatus and subject distance calculating method | |
JP2016134886A (en) | Imaging apparatus and control method thereof | |
JP2008048152A (en) | Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program |