JP2009053748A - Image processing apparatus, image processing program, and camera - Google Patents

Image processing apparatus, image processing program, and camera Download PDF

Info

Publication number
JP2009053748A
JP2009053748A JP2007217219A JP2007217219A JP2009053748A JP 2009053748 A JP2009053748 A JP 2009053748A JP 2007217219 A JP2007217219 A JP 2007217219A JP 2007217219 A JP2007217219 A JP 2007217219A JP 2009053748 A JP2009053748 A JP 2009053748A
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
subject
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007217219A
Other languages
Japanese (ja)
Inventor
Kyoichi Suwa
恭一 諏訪
Yutaka Iwasaki
豊 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007217219A priority Critical patent/JP2009053748A/en
Publication of JP2009053748A publication Critical patent/JP2009053748A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing program, and a camera for enhancing a 3-dimensional effect of an image. <P>SOLUTION: The image processing apparatus 1 has an input unit 11 for inputting image data having information on distance to an object, and correcting units 11, 12 for correcting the image data so as to vary the 3-dimensional effect of the image based on the distance information. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置、画像処理プログラム、カメラに関する。   The present invention relates to an image processing apparatus, an image processing program, and a camera.

たとえば35mm版カメラに比べて撮像面積が小さい電子カメラのように、実焦点距離が短いカメラは、撮影画像が平面的で奥行き感に乏しいことが多い。このような撮影画像に対してぼかしを付加する画像処理を施す技術が知られている(特許文献1参照)。   For example, a camera with a short actual focal length, such as an electronic camera having a small imaging area compared to a 35 mm version camera, often has a flat captured image and a poor sense of depth. A technique for performing image processing for adding blur to such a photographed image is known (see Patent Document 1).

特開2003−125281号公報JP 2003-125281 A

画像にぼかしを付加するだけでは、画像の立体感が乏しいという問題があった。   There is a problem that the three-dimensional effect of the image is poor only by adding blur to the image.

(1)本発明による画像処理装置は、被写体までの距離情報を有する画像データを入力する入力部と、距離情報に基づいて、画像の立体感を変化させるように画像データを修正する修正部とを有することを特徴とする。
(2)請求項1に記載の画像処理装置において、修正部は、画像の奥行きを深くするように画像データを修正することもできる。
(3)請求項1に記載の画像処理装置において、修正部は、画像に含まれる被写体の少なくとも一部の奥行きを深くするように画像データを修正することもできる。
(4)請求項3に記載の画像処理装置において、修正部は、透視投影図法を用いて被写体の形状を修正することもできる。
(5)請求項3に記載の画像処理装置において、修正部は、被写体の凹凸による陰影を付加することもできる。
(6)請求項3に記載の画像処理装置において、修正部は、被写体の影を付加することもできる。
(7)請求項6に記載の画像処理装置において、画像は複数の被写体を含み、画像データは各被写体までの距離情報を有してもよい。この場合の修正部は、一方の被写体の影が他方の被写体にかかるように影を付加することもできる。
(8)請求項1〜請求項3のいずれか一項に記載の画像処理装置において、画像は複数の被写体を含み、画像データは各被写体までの距離情報を有してもよい。この場合の修正部は、複数の被写体間の奥行きを深く修正することもできる。
(9)請求項8に記載の画像処理装置において、修正部は、遠方に位置する被写体の形状を縮小することもできる。
(10)請求項8に記載の画像処理装置において、修正部は、遠方に位置する被写体に画像ぼけを付加することもできる。
(11)請求項1に記載の画像処理装置において、被写体までの距離情報の少なくとも一部を変換する変換部を有してもよい。この場合の修正部は、変換後の距離情報に応じて画像データを修正することもできる。
(12)請求項11に記載の画像処理装置において、変換部は、距離情報を距離が大きくなるように変換することもできる。
(13)請求項12に記載の画像処理装置において、変換部は、距離情報が長くなるにしたがって、距離の変換量を大きくすることもできる。
(14)請求項1〜請求項13のいずれか一項に記載の画像処理装置において、入力部は、ステレオ画像データを入力することもできる。
(15)請求項1〜請求項13のいずれか一項に記載の画像処理装置において、入力部は、画像の分割領域ごとにフォーカス調節情報を有する画像データを入力することもできる。
(16)本発明による画像処理プログラムは、画像データを入力する処理と、画像データが有する距離情報を用いて当該画像に含まれる被写体までの距離を算出する処理と、被写体までの距離に基づいて画像の立体感を変化させるように画像データを修正する処理とを実行させることを特徴とする。
(17)本発明によるカメラは、請求項1〜請求項15のいずれか一項に記載の画像処理装置を搭載することを特徴とする。
(1) An image processing apparatus according to the present invention includes an input unit that inputs image data having distance information to a subject, and a correction unit that corrects the image data so as to change the stereoscopic effect of the image based on the distance information. It is characterized by having.
(2) In the image processing apparatus according to claim 1, the correction unit can also correct the image data so as to increase the depth of the image.
(3) In the image processing apparatus according to claim 1, the correction unit can also correct the image data so that the depth of at least a part of the subject included in the image is deepened.
(4) In the image processing apparatus according to claim 3, the correction unit can also correct the shape of the subject using a perspective projection method.
(5) In the image processing apparatus according to claim 3, the correction unit can add a shadow due to the unevenness of the subject.
(6) In the image processing apparatus according to claim 3, the correction unit can add a shadow of the subject.
(7) In the image processing apparatus according to claim 6, the image may include a plurality of subjects, and the image data may include distance information to each subject. In this case, the correction unit can add a shadow so that the shadow of one subject is applied to the other subject.
(8) In the image processing device according to any one of claims 1 to 3, the image may include a plurality of subjects, and the image data may include distance information to each subject. In this case, the correction unit can also correct the depth between a plurality of subjects deeply.
(9) In the image processing apparatus according to the eighth aspect, the correction unit can reduce the shape of a subject located far away.
(10) In the image processing apparatus according to the eighth aspect, the correction unit can add image blur to a subject located far away.
(11) The image processing apparatus according to claim 1 may include a conversion unit that converts at least a part of distance information to the subject. The correction unit in this case can also correct the image data according to the converted distance information.
(12) In the image processing apparatus according to the eleventh aspect, the conversion unit can also convert the distance information so that the distance becomes larger.
(13) In the image processing apparatus according to the twelfth aspect, the conversion unit can increase the distance conversion amount as the distance information becomes longer.
(14) In the image processing apparatus according to any one of claims 1 to 13, the input unit can also input stereo image data.
(15) In the image processing apparatus according to any one of claims 1 to 13, the input unit can also input image data having focus adjustment information for each divided region of the image.
(16) An image processing program according to the present invention is based on a process for inputting image data, a process for calculating a distance to a subject included in the image using distance information included in the image data, and a distance to the subject. And a process of correcting the image data so as to change the stereoscopic effect of the image.
(17) A camera according to the present invention includes the image processing device according to any one of claims 1 to 15.

本発明によれば、画像の立体感を強めることができる。   According to the present invention, it is possible to enhance the stereoscopic effect of an image.

以下、図面を参照して本発明を実施するための最良の形態について説明する。図1は、本発明の一実施の形態によるステレオ電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、CPU11によって制御される。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating a main configuration of a stereo electronic camera 1 according to an embodiment of the present invention. The electronic camera 1 is controlled by the CPU 11.

左右の撮影レンズ21L,Rは、対応する撮像素子22L,Rの撮像面上にそれぞれ被写体像を結像させる。撮像素子22L,RはCCDイメージセンサなどで構成され、撮像面上の被写体像を撮像し、撮像信号を対応する撮像回路23L,Rへそれぞれ出力する。撮像素子22L,Rの撮像面には、たとえばR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応させて設けられている。撮像素子22L,Rがカラーフィルタを通して被写体像を撮像するため、撮像素子22L,Rから出力される光電変換信号は、RGB表色系の色情報を有する。   The left and right photographing lenses 21L, 21R form subject images on the imaging surfaces of the corresponding imaging elements 22L, R, respectively. The imaging elements 22L and 22 are configured by a CCD image sensor or the like, take a subject image on the imaging surface, and output an imaging signal to the corresponding imaging circuits 23L and R, respectively. For example, R (red), G (green), and B (blue) color filters are provided on the imaging surfaces of the imaging elements 22L and 22R corresponding to the pixel positions. Since the image sensors 22L and R capture the subject image through the color filter, the photoelectric conversion signals output from the image sensors 22L and R have color information of the RGB color system.

撮像回路23L,Rは、撮像素子22L,Rから出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う他、内蔵するA/D変換回路でアナログ撮像信号をディジタルデータに変換する。   The imaging circuits 23L and R perform analog processing (such as gain control) on the photoelectric conversion signals output from the imaging elements 22L and R, and convert the analog imaging signals into digital data by using a built-in A / D conversion circuit.

CPU11は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路12は、たとえばASICとして構成され、撮像回路23L,Rから入力されるディジタル画像信号に対して画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。また、画像処理回路12は後述する立体像再現処理も行う。   The CPU 11 inputs a signal output from each block, performs a predetermined calculation, and outputs a control signal based on the calculation result to each block. The image processing circuit 12 is configured, for example, as an ASIC, and performs image processing on digital image signals input from the imaging circuits 23L and R. The image processing includes, for example, contour enhancement, color temperature adjustment (white balance adjustment) processing, and format conversion processing for an image signal. The image processing circuit 12 also performs a stereoscopic image reproduction process described later.

画像圧縮回路13は、画像処理回路12による処理後の画像信号に対して、JPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路15は、画像を液晶モニタ16に表示させるための表示データを作成する。   The image compression circuit 13 performs image compression processing at a predetermined compression ratio on the image signal processed by the image processing circuit 12 by the JPEG method. The display image creation circuit 15 creates display data for displaying an image on the liquid crystal monitor 16.

記録媒体30は、電子カメラ1に対して着脱可能なメモリカードなどで構成される。記録媒体30には、CPU11からの指示によって画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体30に記録された画像ファイルは、CPU11からの指示によって読み出しが可能である。   The recording medium 30 includes a memory card that can be attached to and detached from the electronic camera 1. In the recording medium 30, image data and an image file including the information are recorded according to an instruction from the CPU 11. The image file recorded on the recording medium 30 can be read by an instruction from the CPU 11.

バッファメモリ14は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体30へ記録する前の画像ファイルを格納したり、記録媒体30から読み出した画像ファイルを格納したりするために使用される。   The buffer memory 14 temporarily stores data before and after image processing and during image processing, stores an image file before being recorded on the recording medium 30, and stores an image file read from the recording medium 30. Used for.

操作部材17は、電子カメラ1の各種ボタンやスイッチ類を含み、レリーズボタンの押下操作、モード切替スイッチの切換操作、メニュー操作など、各操作部材の操作内容に応じた操作信号をCPU11へ出力する。また、後述する立体画像処理を施す画像の指定を行うこともできる。   The operation member 17 includes various buttons and switches of the electronic camera 1, and outputs an operation signal corresponding to the operation content of each operation member to the CPU 11 such as a release button pressing operation, a mode switching switch switching operation, a menu operation, and the like. . It is also possible to specify an image to be subjected to stereoscopic image processing to be described later.

焦点検出装置18は、焦点検出領域に対応する光束を用いて、公知の位相差検出方式によって撮影レンズ21L,Rによる焦点調節状態の検出を行う。具体的には、焦点検出光学系(不図示)を介して一対の被写体像をオートフォーカスセンサ(不図示)上に結像させる。CPU11は、センサ上の一対の被写体像の相対間隔に基づいて撮影レンズ21L,Rによる焦点位置の調節状態(デフォーカス量)を算出する。   The focus detection device 18 detects a focus adjustment state by the photographing lenses 21L and 21 by a known phase difference detection method using a light beam corresponding to the focus detection region. Specifically, a pair of subject images are formed on an autofocus sensor (not shown) via a focus detection optical system (not shown). The CPU 11 calculates the adjustment state (defocus amount) of the focal position by the photographing lenses 21L and 21R based on the relative distance between the pair of subject images on the sensor.

レンズ駆動機構19は、CPU11からの指示によって撮影レンズ21L,Rを構成するフォーカスレンズ(不図示)を光軸方向に進退移動させる。これにより、ピント調節が行われる。   The lens driving mechanism 19 moves a focus lens (not shown) constituting the photographing lenses 21L and R forward and backward in the optical axis direction according to an instruction from the CPU 11. Thereby, focus adjustment is performed.

電子カメラ1は、撮影モードと再生モードとを切替え可能に構成される。撮影モードは、被写体像を撮影し、撮影画像のデータを記録媒体30に画像ファイルとして保存する動作モードである。再生モードは、撮影済みの画像データを記録媒体30から読み出すなどして、画像データによる再生画像を液晶モニタ16に表示するモードである。   The electronic camera 1 is configured to be able to switch between a shooting mode and a playback mode. The shooting mode is an operation mode in which a subject image is shot and data of the shot image is stored in the recording medium 30 as an image file. The reproduction mode is a mode in which the reproduced image based on the image data is displayed on the liquid crystal monitor 16 by reading the captured image data from the recording medium 30.

<立体像再現処理>
本実施形態の電子カメラ1は、画像の奥行きを深く見せるように当該画像を加工する立体像再現機能を備える。具体的には、
[1]一対のステレオ画像を用いて注目被写体までのステレオ距離計測を行い、
[2]当該ステレオ画像の少なくとも一方の画像に対し、距離計測結果に基づく注目被写体の凹凸による陰影(シェード)を当該被写体に付加・強調したり、
[3]注目被写体の影(シャドウ)を付加・強調したり、
[4]画像の奥行き(距離)を強調したりする画像処理を施す。
[5]画像処理後の立体像再現画像は、液晶モニタ16への表示や記録媒体30への記録に用いる。
電子カメラ1のCPU11は、操作部材17から立体像再現処理実行を指示する操作信号が入力されると、以下の処理を開始する。
<3D image reproduction processing>
The electronic camera 1 of the present embodiment has a stereoscopic image reproduction function that processes the image so that the depth of the image is deep. In particular,
[1] Measure stereo distance to the subject of interest using a pair of stereo images,
[2] For at least one of the stereo images, a shadow (shade) due to the unevenness of the subject of interest based on the distance measurement result is added / emphasized to the subject,
[3] Add or enhance the shadow of the subject of interest,
[4] Image processing for enhancing the depth (distance) of the image is performed.
[5] The three-dimensional image reproduction image after image processing is used for display on the liquid crystal monitor 16 and recording on the recording medium 30.
When the operation signal instructing execution of the stereoscopic image reproduction process is input from the operation member 17, the CPU 11 of the electronic camera 1 starts the following process.

図2は、CPU11が行う立体像再現処理の流れを説明するフローチャートである。図2のステップS11において、CPU11は、記録媒体30から一対のステレオ画像ファイルを読み出し、各々のファイル内の画像データをバッファメモリ14に展開させてステップS12へ進む。読み出すステレオ画像ファイルは、操作部材17からの操作信号によって指示する。   FIG. 2 is a flowchart for explaining the flow of the stereoscopic image reproduction process performed by the CPU 11. In step S11 of FIG. 2, the CPU 11 reads a pair of stereo image files from the recording medium 30, develops the image data in each file in the buffer memory 14, and proceeds to step S12. The stereo image file to be read is instructed by an operation signal from the operation member 17.

図3はステレオ画像を例示する図であり、図3(a)は左画像、図3(b)は右画像である。電子カメラ1は、左右の撮影光学系によって共通の被写体(人物Aおよび人物B)を含むステレオ画像を撮影する。図3(a),(b)によれば、一対のステレオ画像間には視差が生じ、各画像における人物Aおよび人物Bの相対位置が異なる。記録媒体30には、このようなステレオ画像ファイルが記録されている。   FIG. 3 is a diagram illustrating a stereo image, where FIG. 3A is a left image and FIG. 3B is a right image. The electronic camera 1 captures a stereo image including a common subject (person A and person B) with the left and right imaging optical systems. According to FIGS. 3A and 3B, parallax occurs between a pair of stereo images, and the relative positions of the person A and the person B in each image are different. Such a stereo image file is recorded on the recording medium 30.

図2のステップS12において、CPU11はステレオ距離計測を行う。具体的には、
[1]バッファメモリ14上の左画像および右画像のデータから対応する特徴点を抽出し、
[2]抽出した特徴点に対応する左右両画像のデータ位置に基づいてステレオ距離計測を行う。
In step S12 of FIG. 2, the CPU 11 performs stereo distance measurement. In particular,
[1] Extract corresponding feature points from the data of the left image and the right image on the buffer memory 14,
[2] Stereo distance measurement is performed based on the data positions of the left and right images corresponding to the extracted feature points.

図4は、水平方向についてのステレオ距離計測を説明する概略図である。図4において、左画像撮影位置、右画像撮影位置、および左右両画像に共通の被写体位置(人物Aの場合を例示)とで三角形が形成されている。CPU11は、たとえば特開昭63−18213号公報に開示されているように被写体距離Zを算出する。   FIG. 4 is a schematic diagram for explaining stereo distance measurement in the horizontal direction. In FIG. 4, a triangle is formed with a left image shooting position, a right image shooting position, and a subject position common to both the left and right images (example of person A). The CPU 11 calculates the subject distance Z as disclosed in, for example, Japanese Patent Laid-Open No. 63-18213.

本実施形態では人物Aおよび人物Bを注目被写体とするので、左画像および右画像から対応する顔画像を抽出するために公知の顔検出処理を行う。たとえば、人物Aの顔に関して距離情報を取得する場合、左画像から検出された顔領域22(図3(a)に例示)と、右画像から検出された顔領域21(図3(b)に例示)とを対応する演算対象領域とし、両演算対象領域に含まれる画素データを用いて被写体距離Zを算出する。なお、注目被写体が人物でない場合には、ステレオ画像における公知の対応点検出技術を用いることによって左右の画像間で対応する画素データを抽出し、本実施形態の演算対象領域としてもよい。   In this embodiment, since the person A and the person B are the subject of interest, a known face detection process is performed in order to extract the corresponding face image from the left image and the right image. For example, when acquiring distance information regarding the face of the person A, the face area 22 detected from the left image (illustrated in FIG. 3A) and the face area 21 detected from the right image (FIG. 3B). The subject distance Z is calculated using the pixel data included in both calculation target areas. If the subject of interest is not a person, pixel data corresponding to the left and right images may be extracted by using a known corresponding point detection technique in a stereo image, and may be used as a calculation target region in this embodiment.

被写体距離Zは、次式(1)で算出される。
Z=L×f/d (1)
ただし、Lはステレオ撮影時(左画像撮影位置および右画像撮影位置)の撮影レンズ21の光軸間距離(基線長)であり、fは撮影レンズ21L,Rの焦点距離、dは視差(=X−X)である。Xは距離計測の対象とする左画像上のデータ位置に対応し、Xは距離計測の対象とする右画像上のデータ位置に対応する。
The subject distance Z is calculated by the following equation (1).
Z = L × f / d (1)
Here, L is the distance (base line length) between the optical axes of the taking lens 21 at the time of stereo shooting (left image shooting position and right image shooting position), f is the focal length of the shooting lenses 21L and R, and d is parallax (= X L -X R ). X L corresponds to the data position on the left image to be subjected to distance measurement, X R corresponds to the data position on the right image to be subjected to distance measurement.

CPU11は、顔領域21および顔領域22間の対応する画素データごとに上記演算を行い、画素単位で被写体距離Zを算出する。なお、垂直方向についても水平方向の場合と同様の演算を行うことにより、撮影されている顔に関して三次元計測情報を取得できる。また、同様の演算を顔以外の他の領域を対象に行うことにより、撮影されている胴体などに関しても三次元計測情報を取得できる。   The CPU 11 performs the above calculation for each corresponding pixel data between the face area 21 and the face area 22 and calculates the subject distance Z in units of pixels. Note that three-dimensional measurement information can be acquired for the face being photographed by performing the same calculation in the vertical direction as in the horizontal direction. Further, by performing the same calculation on a region other than the face, three-dimensional measurement information can be acquired for the body being photographed.

図2のステップS13において、CPU11は指示されている加工内容を判定する。CPU11は、影(シャドウ)の付加・強調が指示されている場合はステップS14へ進み、陰(シェード)の付加・強調が指示されている場合はステップS15へ進み、被写体の大きさ変更が指示されている場合はステップS16へ進み、ぼかし付加が指示されている場合はステップS17へ進む。加工内容は、操作部材17からの操作信号によって指示される。   In step S13 of FIG. 2, the CPU 11 determines the instructed processing content. The CPU 11 proceeds to step S14 when the addition / emphasis of shadows is instructed, and proceeds to step S15 when the addition / emphasis of shadows is instructed, and instructs to change the size of the subject. If YES in step S16, the flow advances to step S16. If blur addition is instructed, the flow advances to step S17. The processing content is instructed by an operation signal from the operation member 17.

<シェード付加>
ステップS15において、CPU11は画像処理回路12へ指示を送り、陰影(シェード)の付加・強調処理を行わせる。画像処理回路12は、ステレオ距離計測結果を用いて以下のようにシェードを加える。画像処理回路12は、画像の所定領域ごとに、輝度が所定値以上である画素データPの距離Zより距離Zが長い画素データであって、画素データPの位置から所定範囲(たとえば画像において右下45°方向から±10°)内に存在する画素データを含む画像の領域の輝度を元データの半分にすることにより、注目被写体の凹凸による陰影(シェード)を加える。図5は、右画像(図3(b))に対して右下45°方向へシェード付加を施した画像を例示する図である。
<Shade addition>
In step S <b> 15, the CPU 11 sends an instruction to the image processing circuit 12 to perform a shadow addition / emphasis process. The image processing circuit 12 adds a shade as follows using the stereo distance measurement result. The image processing circuit 12 is pixel data having a distance Z longer than the distance Z B of the pixel data P having a luminance equal to or higher than a predetermined value for each predetermined area of the image, and is within a predetermined range (for example, in the image) By making the luminance of an image area including pixel data within ± 10 ° from the lower right 45 ° direction half of the original data, a shade due to unevenness of the subject of interest is added. FIG. 5 is a diagram illustrating an image in which a shade is added to the right image (FIG. 3B) in the lower right 45 ° direction.

また、画像処理回路12は、画像の所定領域ごとに、距離Zが最短である画素データの輝度を基準Bとして、基準Bより距離Zが長い画素データほど輝度を低く下げて明暗を付ける。   Further, the image processing circuit 12 sets the brightness of the pixel data with the shortest distance Z as the reference B for each predetermined region of the image, and lowers the brightness of the pixel data with the distance Z longer than the reference B to add brightness and darkness.

なお、撮影時の照明光によって撮影画像に陰影(シェード)が生じている場合は、図6に例示するように、輝度をさらに減じるようにするとよい。付加するシェードの状態は、操作部材17からの操作信号によって指示可能に構成してもよい。   In addition, when the shadow (shade) has arisen in the picked-up image with the illumination light at the time of imaging | photography, it is good to reduce a brightness | luminance further so that it may illustrate in FIG. The state of the shade to be added may be configured to be instructable by an operation signal from the operation member 17.

<シャドウ付加1>
ステップS14において、CPU11は画像処理回路12へ指示を送り、影(シャドウ)の付加・強調処理を行わせる。画像処理回路12は、注目被写体ごとに、ステレオ距離計測結果および図学の手法を用いて影を付加する。図7は、右画像(図3(b))に対して平行光線によるシャドウ付加を施した画像を例示する図である。画像処理回路12は、前景(人物A)の影が背景(人物B)にかかるように光源の方向を仮想し、当該仮想光源からの平行光線によって生じて人物B上に映る人物Aの影を付加する。
<Shadow addition 1>
In step S <b> 14, the CPU 11 sends an instruction to the image processing circuit 12 to perform shadow addition / enhancement processing. The image processing circuit 12 adds a shadow to each subject of interest using a stereo distance measurement result and a graphic technique. FIG. 7 is a diagram illustrating an image in which a shadow is added by parallel rays to the right image (FIG. 3B). The image processing circuit 12 virtualizes the direction of the light source so that the shadow of the foreground (person A) is applied to the background (person B), and the shadow of the person A reflected on the person B caused by the parallel rays from the virtual light source. Append.

<シャドウ付加2>
平行光源の代わりに発散光源を仮想してもよい。図8は、右画像(図3(b))に対して発散光線によるシャドウ付加を施した画像を例示する図である。画像処理回路12は、前景(人物A)の影が背景(人物B)にかかるように光源の方向を仮想し、当該仮想光源からの発散光線によって生じて人物B上に映る人物Aの影を付加する。
<Shadow addition 2>
A divergent light source may be assumed instead of a parallel light source. FIG. 8 is a diagram illustrating an image in which a shadow is added by a divergent ray to the right image (FIG. 3B). The image processing circuit 12 virtualizes the direction of the light source so that the shadow of the foreground (person A) is applied to the background (person B), and the shadow of the person A reflected on the person B caused by the divergent light from the virtual light source is displayed. Append.

<シャドウ付加3>
ステレオ距離計測結果を用いず、光源を仮想することなく、形式的な影を付加してもよい。図9は、右画像(図3(b))の注目被写体に対し、形式的なシャドウ付加を施した画像を例示する図である。以上の「シャドウ付加1」〜「シャドウ付加3」のいずれの加工を行うかは、操作部材17からの操作信号によって指示されている。
<Shadow addition 3>
Formal shadows may be added without using the stereo distance measurement result and without virtualizing the light source. FIG. 9 is a diagram illustrating an image in which a formal shadow is added to the subject of interest in the right image (FIG. 3B). Which one of the processes of “shadow addition 1” to “shadow addition 3” is performed is instructed by an operation signal from the operation member 17.

<デフォルメ1>
ステップS16において、CPU11は画像処理回路12へ指示を送り、ステレオ距離計測結果を用いて画像の奥行き(距離)に関して強調処理を行わせる。図10は、右画像(図3(b))のうち、遠景である人物Bを小さく縮小処理した画像を例示する図である。
<Deformation 1>
In step S <b> 16, the CPU 11 sends an instruction to the image processing circuit 12 to perform enhancement processing on the depth (distance) of the image using the stereo distance measurement result. FIG. 10 is a diagram exemplifying an image obtained by reducing the person B who is a distant view from the right image (FIG. 3B).

<デフォルメ2>
ステレオ距離計測結果および図学の透視投影手法を用いて注目被写体を変形してもよい。画像処理回路12は、注目被写体ごとに、たとえば距離Zが最短の画素データと距離Zが最長の画素データとの間の距離差を長く延ばすように、距離Zを(Z+α)に変化させた被写体像を生成する。これにより、注目被写体の奥行きが実際より深くなる。ここで、αは距離Zが長いほど大きくすると、奥行きをより強く強調できる。「デフォルメ1」および「デフォルメ2」のいずれの加工を行うかは、操作部材17からの操作信号によって指示されている。
<Deformation 2>
The subject of interest may be transformed using the stereo distance measurement result and the perspective projection method of graphics. For each subject of interest, for example, the image processing circuit 12 changes the distance Z to (Z + α) so as to extend the distance difference between the pixel data with the shortest distance Z and the pixel data with the longest distance Z. Generate an image. This makes the depth of the subject of interest deeper than it actually is. Here, if α is increased as the distance Z is longer, the depth can be emphasized more strongly. Which one of “deformation 1” and “deformation 2” is to be processed is instructed by an operation signal from the operation member 17.

<ぼかし付加>
ステップS17において、CPU11は画像処理回路12へ指示を送り、ステレオ距離計測結果を用いてぼかし処理を行わせる。図11は、右画像(図3(b))のうち、遠景である人物Bを含む領域をぼかし処理した画像を例示する図である。ぼかし処理は、画像データにローパスフィルタ(LPF)処理を施して画像の高域空間周波数成分を劣化させることにより、画像のエッジを不鮮明にし、画像のコントラストを低下させるものである。
<Add blur>
In step S <b> 17, the CPU 11 sends an instruction to the image processing circuit 12 to perform blurring processing using the stereo distance measurement result. FIG. 11 is a diagram exemplifying an image obtained by blurring an area including a person B as a distant view in the right image (FIG. 3B). In the blurring process, image data is subjected to a low-pass filter (LPF) process to degrade high-frequency spatial frequency components of the image, thereby blurring the edges of the image and reducing the contrast of the image.

図2のステップS18において、CPU11は、立体像再現のための加工の組み合わせが指示されているか否かを判定する。CPU11は、他の加工処理も指示されている場合はステップS18を肯定判定してステップS13へ戻る。ステップS13へ戻る場合のCPU11は、他の加工処理を行う。図12は、右画像(図3(b))に対して、図5に例示したシェード付加と、図8に例示したシャドウ付加2と、図10に例示したぼかし付加とを組み合わせ処理した画像を例示する図である。   In step S <b> 18 of FIG. 2, the CPU 11 determines whether or not a processing combination for stereoscopic image reproduction is instructed. If other processing is also instructed, the CPU 11 makes a positive determination in step S18 and returns to step S13. When returning to step S13, the CPU 11 performs other processing. 12 shows an image obtained by combining the right image (FIG. 3B) with the shade addition illustrated in FIG. 5, the shadow addition 2 illustrated in FIG. 8, and the blur addition illustrated in FIG. It is a figure illustrated.

一方、CPU11は、他の加工処理が指示されていない場合にはステップS18を否定判定し、ステップS19へ進む。   On the other hand, if other processing is not instructed, the CPU 11 makes a negative determination in step S18 and proceeds to step S19.

ステップS19において、CPU11は、画像処理後の立体像再現画像を液晶モニタ16へ表示させてステップS20へ進む。ステップS20において、CPU11は処理結果が満足されたか否かを判定する。CPU11は、操作部材17から「OK」を示す操作信号が入力された場合にステップS20を肯定判定してステップS21へ進む。CPU11は、操作部材17から「OK」を示す操作信号が入力されない場合にはステップS20を否定判定し、ステップS13へ戻る。ステップS13へ戻る場合のCPU11は、たとえば、新たな加工内容を指示する操作を促すメッセージを液晶モニタ16に表示させて、操作部材17からの操作信号を受け付ける。   In step S19, the CPU 11 displays the stereoscopic image reproduction image after the image processing on the liquid crystal monitor 16, and proceeds to step S20. In step S20, the CPU 11 determines whether or not the processing result is satisfied. When the operation signal indicating “OK” is input from the operation member 17, the CPU 11 makes a positive determination in step S <b> 20 and proceeds to step S <b> 21. If the operation signal indicating “OK” is not input from the operation member 17, the CPU 11 makes a negative determination in step S20 and returns to step S13. When returning to step S13, for example, the CPU 11 displays a message for prompting an operation for instructing new processing contents on the liquid crystal monitor 16, and receives an operation signal from the operation member 17.

ステップS21において、CPU11は、画像処理後の立体像再現画像を保存するか否かを判定する。CPU11は、操作部材17から「保存」を示す操作信号が入力された場合にステップS21を肯定判定してステップS22へ進む。CPU11は、操作部材17から「保存」を示す操作信号が入力されない場合にはステップS21を否定判定し、図2による処理を終了する。ステップS22において、CPU11は、立体像再現画像のファイルを記録媒体30に保存して図2による処理を終了する。   In step S <b> 21, the CPU 11 determines whether to save the stereoscopic image reproduction image after the image processing. When the operation signal indicating “save” is input from the operation member 17, the CPU 11 makes a positive determination in step S <b> 21 and proceeds to step S <b> 22. If the operation signal indicating “save” is not input from the operation member 17, the CPU 11 makes a negative determination in step S <b> 21 and ends the process of FIG. 2. In step S <b> 22, the CPU 11 stores the stereoscopic image reproduction image file in the recording medium 30 and ends the processing of FIG. 2.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)ステレオ画像を用いてステレオ距離計測をするので、画素単位で(所定の画素ブロック単位としてもよい)被写体までの距離情報が得られる。この距離情報を用いて画像の奥行きを深く見せる加工を行うので、平面的で奥行きが浅い画像の立体感を強めることができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) Since stereo distance measurement is performed using a stereo image, distance information to a subject can be obtained in pixel units (may be a predetermined pixel block unit). Since the processing for making the depth of the image deeper is performed using this distance information, it is possible to enhance the stereoscopic effect of the flat and shallow image.

(2)たとえば人物A(物体)に関して加工を行うことにより、当該物体の立体感を強めることができる。 (2) For example, by processing the person A (object), the three-dimensional effect of the object can be enhanced.

(3)取得した距離情報を使い、透視投影図法を用いて物体の形状を変形することにより、物体についての奥行き感を強めることができる。 (3) By using the acquired distance information and deforming the shape of the object using the perspective projection method, it is possible to enhance the sense of depth about the object.

(4)取得した距離情報を使い、人物A(物体)の凹凸に起因するシェード付加を行うことにより、当該物体の立体感を強めることができる。 (4) By using the acquired distance information and adding a shade due to the unevenness of the person A (object), the stereoscopic effect of the object can be enhanced.

(5)取得した距離情報を使い、人物A(物体)にシャドウ付加を行うことにより、当該物体の立体感を強めることができる。 (5) By using the acquired distance information and adding a shadow to the person A (object), the stereoscopic effect of the object can be enhanced.

(6)取得した距離情報を使い、人物A(物体)のシャドウが人物B(他の物体)にかかるように付加することにより、当該画像の立体感を強めることができる。 (6) By using the acquired distance information and adding the shadow of the person A (object) to the person B (other object), the stereoscopic effect of the image can be enhanced.

(7)取得した距離情報を使い、人物A(物体)と人物B(他の物体)との距離を実際より深く加工することにより、当該画像の立体感を強めることができる。 (7) By using the acquired distance information and processing the distance between the person A (object) and the person B (other object) deeper than the actual distance, the stereoscopic effect of the image can be enhanced.

(8)取得した距離情報を使い、遠方の人物B(物体)を実際より小さく縮小加工することにより、当該画像の立体感を強めることができる。 (8) The stereoscopic effect of the image can be enhanced by using the acquired distance information and reducing the far person B (object) to be smaller than the actual size.

(9)取得した距離情報を使い、遠方の人物B(物体)の像をぼかす加工をすることにより、当該画像の立体感を強めることができる。 (9) Using the acquired distance information, the stereoscopic effect of the image can be enhanced by processing the image of the distant person B (object) to be blurred.

(変形例1)
シェード付加の説明において画像の対象領域の輝度を低くする場合を例示したが、シャドウ付加の場合と同様に対象領域を塗りつぶすようにしてもよい。これにより、被写体の凸凹を強く表現することができる。また、対象領域にラインを引いてもよい。
(Modification 1)
In the description of the shade addition, the case where the luminance of the target area of the image is lowered is illustrated, but the target area may be filled in the same manner as in the case of adding the shadow. Thereby, the unevenness of the subject can be expressed strongly. Further, a line may be drawn in the target area.

(変形例2)
また、シェード付加において、対象領域の範囲をステレオ距離計測結果を用いて決定される実際の範囲より広げてもよい。これにより、被写体表面の実際の凸凹より強調させることができる。
(Modification 2)
In addition, in the shade addition, the range of the target area may be wider than the actual range determined using the stereo distance measurement result. Thereby, it can emphasize from the actual unevenness | corrugation on the to-be-photographed object surface.

(変形例3)
シェード付加の説明において、シェード付加の方向を画像の右下45°方向±10°の範囲としたが、この付加方向は適宜変更して構わない。
(Modification 3)
In the description of the shade addition, the shade addition direction is in the range of the lower right 45 ° direction ± 10 ° of the image, but this addition direction may be changed as appropriate.

(変形例4)
シャドウ付加1〜3の説明において画像の対象領域を塗りつぶす場合を例示したが、対象領域にラインを引くようにしてもよい。これにより、塗りつぶす場合に比べて影をソフトに表現できる。
(Modification 4)
In the description of the shadow additions 1 to 3, the case where the target area of the image is filled is illustrated, but a line may be drawn in the target area. As a result, the shadow can be expressed in software compared to the case of painting.

(変形例5)
シャドウ付加1および2では、前景(人物A)の影が背景(人物B)にかかるように光源の方向および高さを仮想したが、他の位置に仮想光源を設けてもよい。また、仮想光源を複数設け、それぞれの光源による影を付加するようにしてもよい。
(Modification 5)
In the shadow additions 1 and 2, the direction and height of the light source are virtual so that the shadow of the foreground (person A) is applied to the background (person B), but a virtual light source may be provided at another position. Also, a plurality of virtual light sources may be provided, and shadows from the respective light sources may be added.

(変形例6)
デフォルメの他の例として、室内で撮影された画像の場合は壁に設けられている構造物(たとえば、窓、扉など)を小さく縮小処理してもよい。また、縮小処理した構造物を実際より上方に移動させれば、画像の奥行きをさらに表現できる。
(Modification 6)
As another example of deformation, in the case of an image taken indoors, a structure (for example, a window or a door) provided on the wall may be reduced and reduced. Further, if the reduced structure is moved above the actual depth, the depth of the image can be further expressed.

(変形例7)
GPSシステムによる測位情報が得られる環境で屋外撮影した画像の場合、シェード付加の方向や、シャドウを付加する場合の仮想光源の方向を決定する際に測位情報を利用してもよい。この場合のCPU11は、測位情報に基づいて特定される太陽の方向および高度に合わせて仮想光源の位置を決める。このようにすれば、自然光による影、陰影と画像処理によって付加されるシャドウ、シェードの向きを揃えることができる。
(Modification 7)
In the case of an image taken outdoors in an environment where positioning information by the GPS system can be obtained, the positioning information may be used when determining the direction of shade addition and the direction of the virtual light source when adding a shadow. In this case, the CPU 11 determines the position of the virtual light source in accordance with the sun direction and altitude specified based on the positioning information. In this way, it is possible to align the direction of shadows and shades by natural light and shadows and shades added by image processing.

(変形例8)
以上の説明では、立体像再現のための加工をステレオ画像を構成する右画像に対して施す例を説明した。この代わりに、左画像に対して施しても、両画像に対して施しても構わない。
(Modification 8)
In the above description, an example in which processing for reproducing a stereoscopic image is performed on the right image constituting the stereo image has been described. Instead, it may be applied to the left image or both images.

(変形例9)
ステレオ画像が二眼の電子カメラ1によって撮影・記録される例を説明したが、単眼のカメラによって撮影位置を変えて撮影したステレオ画像や、三眼カメラによって撮影された画像に対しても同様の加工処理を行うようにしてよい。
(Modification 9)
Although an example in which a stereo image is shot and recorded by the two-lens electronic camera 1 has been described, the same applies to a stereo image shot by changing the shooting position with a monocular camera or an image shot by a trinocular camera. Processing may be performed.

(変形例10)
撮影画像の分割領域ごとに測距情報(たとえば、フォーカス調節情報)を有する画像データの場合は、ステレオ画像によらなくても本発明を適用できる。この場合の電子カメラ1は、撮影画面内の異なる複数のフォーカス検出領域のそれぞれにおいて撮影レンズ21L、Rによる焦点位置の調節状態(デフォーカス量)を算出する。デフォーカス量は、フォーカス検出領域に存在する物体(被写体)までの撮影距離情報として用いる。撮影画像とともに、各フォーカス検出領域におけるデフォーカス量情報を関連づけて保存しておくと、撮影画像に対して上記立体像再現処理を施すことができる。
(Modification 10)
In the case of image data having distance measurement information (for example, focus adjustment information) for each divided region of the captured image, the present invention can be applied without using a stereo image. In this case, the electronic camera 1 calculates the adjustment state (defocus amount) of the focal position by the photographing lenses 21L and 21R in each of a plurality of different focus detection areas in the photographing screen. The defocus amount is used as shooting distance information to an object (subject) existing in the focus detection area. If the defocus amount information in each focus detection area is stored in association with the captured image, the stereoscopic image reproduction process can be performed on the captured image.

(変形例11)
撮影レンズ21L、Rを構成するフォーカスレンズ(不図示)を至近端から無限遠端に移動させながら、異なるフォーカス調節状態の撮影画像を順次取得する場合にも、ステレオ画像によらずに本発明を適用できる。この場合、各撮影画像とともに測距情報(たとえば、フォーカスレンズの位置情報)を関連づけて保存しておく。撮影画面内の物体(被写体)は、いずれかの画像においてピントが合った画像(ピントが外れている場合に比べて当該物体の領域のコントラストが高い)が得られので、ピントが合った撮影画像に対応する測距情報を、当該物体までの撮影距離情報として用いる。
(Modification 11)
Even in the case where captured images in different focus adjustment states are sequentially acquired while moving a focus lens (not shown) constituting the photographic lenses 21L and 21R from the closest end to the infinity end, the present invention is used regardless of the stereo image. Can be applied. In this case, distance measurement information (for example, focus lens position information) is stored in association with each captured image. The object (subject) in the shooting screen is an in-focus image in any of the images (the contrast of the object area is higher than when the object is out of focus). Is used as shooting distance information to the object.

(変形例12)
撮影画面内の被写体までの距離情報を変更し、変更後の距離情報に応じてそれぞれの被写体を再配置して、画像の立体感を強調してもよい。例えば図4に示すように被写体として人物A、人物Bがいる場合に、電子カメラから人物Bまでの距離を実際に電子カメラで測距した距離よりも長く変更する。具体的には、画像データと共に保存されている人物Bまでの距離情報を、より長い距離情報に変更する。次に変更後の距離情報を基に人物Bを画像中で再配置すると、遠景である人物Bが縮小処理された図10と同様の画像を得ることができる。
(Modification 12)
The distance information to the subject in the shooting screen may be changed, and each subject may be rearranged according to the changed distance information to enhance the stereoscopic effect of the image. For example, as shown in FIG. 4, when there are a person A and a person B as subjects, the distance from the electronic camera to the person B is changed to be longer than the distance actually measured by the electronic camera. Specifically, the distance information to the person B stored together with the image data is changed to longer distance information. Next, when the person B is rearranged in the image based on the changed distance information, an image similar to that in FIG. 10 in which the person B as a distant view is reduced can be obtained.

このように距離情報を変更し、変更した距離に応じて被写体を再配置することによっても、画像の立体感を強調することができる。なお、距離情報を変更する場合、1つの画像の中に複数の被写体が存在する場合に、電子カメラから被写体までの距離が短い場合には距離を僅かに長くし、被写体までの距離が長くなるにしたがって距離の変更量を大きくするようにしてもかまわない。このようにすることによって画像全体で立体感を強調することができる。   The stereoscopic effect of the image can also be enhanced by changing the distance information and rearranging the subject according to the changed distance. When changing the distance information, when there are a plurality of subjects in one image and the distance from the electronic camera to the subject is short, the distance is slightly increased and the distance to the subject is increased. The distance change amount may be increased according to the above. By doing so, the stereoscopic effect can be enhanced in the entire image.

(変形例13)
電子カメラ1内で立体像再現を実行する例を説明したが、図2による処理を行う画像処理プログラムを図13に示すコンピュータ装置10に実行させることにより、画像処理装置を構成してもよい。画像処理プログラムをパーソナルコンピュータ10に取込んで使用する場合には、パーソナルコンピュータ10のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像処理装置として使用する。
(Modification 13)
Although an example in which stereoscopic image reproduction is executed in the electronic camera 1 has been described, the image processing apparatus may be configured by causing the computer apparatus 10 shown in FIG. 13 to execute an image processing program for performing the processing shown in FIG. When an image processing program is taken into the personal computer 10 and used, the program is loaded into the data storage device of the personal computer 10 and then used as an image processing device by executing the program.

パーソナルコンピュータ10に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体104をパーソナルコンピュータ10にセットして行ってもよいし、ネットワークなどの通信回線101を経由する方法でパーソナルコンピュータ10へローディングしてもよい。通信回線101を経由する場合は、通信回線101に接続されたサーバー(コンピュータ)102のハードディスク装置103などにプログラムを格納しておく。画像処理プログラムは、記録媒体104や通信回線101を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The loading of the program to the personal computer 10 may be performed by setting the recording medium 104 such as a CD-ROM storing the program in the personal computer 10 or by a method via the communication line 101 such as a network. You may load. When passing through the communication line 101, the program is stored in the hard disk device 103 of the server (computer) 102 connected to the communication line 101. The image processing program can be supplied as various types of computer program products such as provision via the recording medium 104 or the communication line 101.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

本発明の一実施の形態による電子カメラの要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of the electronic camera by one embodiment of this invention. CPUが行う立体像再現処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the stereoscopic image reproduction process which CPU performs. ステレオ画像を例示する図であり、(a)は左画像の図、図3(b)は右画像の図である。It is a figure which illustrates a stereo image, (a) is a figure of a left image, FIG.3 (b) is a figure of a right image. 水平方向についてのステレオ距離計測を説明する概略図である。It is the schematic explaining the stereo distance measurement about a horizontal direction. シェード付加を施した画像を例示する図である。It is a figure which illustrates the image which gave shade addition. 付加するラインを太くした画像を例示する図である。It is a figure which illustrates the image which made the line to add thick. 平行光線によるシャドウ付加を施した画像を例示する図である。It is a figure which illustrates the image which gave the shadow addition by a parallel ray. 発散光線によるシャドウ付加を施した画像を例示する図である。It is a figure which illustrates the image which gave the shadow addition by a divergent ray. 形式的なシャドウ付加を施した画像を例示する図である。It is a figure which illustrates the image which gave formal shadow addition. 遠景人物を縮小処理した画像を例示する図である。It is a figure which illustrates the image which reduced the distant view person. 遠景人物を含む領域をぼかし処理した画像を例示する図である。It is a figure which illustrates the image which blurred the area | region containing a distant view person. 組み合わせ処理した画像を例示する図である。It is a figure which illustrates the image which carried out the combination process. コンピュータ装置を例示する図である。It is a figure which illustrates a computer apparatus.

符号の説明Explanation of symbols

1…電子カメラ
11…CPU
12…画像処理回路
16…液晶モニタ
17…操作部材
21L、21R…撮影レンズ
22L、22R…撮像素子
30…記録媒体
A、B…人物
1 ... Electronic camera 11 ... CPU
DESCRIPTION OF SYMBOLS 12 ... Image processing circuit 16 ... Liquid crystal monitor 17 ... Operation member 21L, 21R ... Shooting lens 22L, 22R ... Imaging element 30 ... Recording medium A, B ... Person

Claims (17)

被写体までの距離情報を有する画像データを入力する入力部と、
前記距離情報に基づいて、前記画像の立体感を変化させるように前記画像データを修正する修正部とを有することを特徴とする画像処理装置。
An input unit for inputting image data having distance information to the subject;
An image processing apparatus comprising: a correction unit that corrects the image data so as to change a stereoscopic effect of the image based on the distance information.
請求項1に記載の画像処理装置において、
前記修正部は、前記画像の奥行きを深くするように前記画像データを修正することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the correction unit corrects the image data so as to increase a depth of the image.
請求項1に記載の画像処理装置において、
前記修正部は、前記画像に含まれる被写体の少なくとも一部の奥行きを深くするように前記画像データを修正することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the correction unit corrects the image data so as to deepen at least a part of a subject included in the image.
請求項3に記載の画像処理装置において、
前記修正部は、透視投影図法を用いて前記被写体の形状を修正することを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The image processing apparatus, wherein the correction unit corrects the shape of the subject using a perspective projection method.
請求項3に記載の画像処理装置において、
前記修正部は、前記被写体の凹凸による陰影を付加することを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The image processing apparatus according to claim 1, wherein the correction unit adds a shadow due to the unevenness of the subject.
請求項3に記載の画像処理装置において、
前記修正部は、前記被写体の影を付加することを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The image processing apparatus, wherein the correction unit adds a shadow of the subject.
請求項6に記載の画像処理装置において、
前記画像は複数の被写体を含み、前記画像データは各被写体までの距離情報を有し、
前記修正部は、一方の被写体の影が他方の被写体にかかるように前記影を付加することを特徴とする画像処理装置。
The image processing apparatus according to claim 6.
The image includes a plurality of subjects, the image data has distance information to each subject,
The image processing apparatus, wherein the correction unit adds the shadow so that the shadow of one subject is applied to the other subject.
請求項1〜請求項3のいずれか一項に記載の画像処理装置において、
前記画像は複数の被写体を含み、前記画像データは各被写体までの距離情報を有し、
前記修正部は、前記複数の被写体間の奥行きを深く修正することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The image includes a plurality of subjects, the image data has distance information to each subject,
The image processing apparatus, wherein the correction unit corrects a depth between the plurality of subjects deeply.
請求項8に記載の画像処理装置において、
前記修正部は、遠方に位置する被写体の形状を縮小することを特徴とする画像処理装置。
The image processing apparatus according to claim 8.
The image processing apparatus, wherein the correction unit reduces the shape of a subject located far away.
請求項8に記載の画像処理装置において、
前記修正部は、遠方に位置する被写体に画像ぼけを付加することを特徴とする画像処理装置。
The image processing apparatus according to claim 8.
The image processing apparatus according to claim 1, wherein the correction unit adds image blur to a subject located far away.
請求項1に記載の画像処理装置において、
前記被写体までの距離情報の少なくとも一部を変換する変換部を有し、
前記修正部は、前記変換後の距離情報に応じて前記画像データを修正することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
A conversion unit that converts at least part of the distance information to the subject;
The correction unit corrects the image data in accordance with the converted distance information.
請求項11に記載の画像処理装置において、
前記変換部は、前記距離情報を距離が大きくなるように変換することを特徴とする画像処理装置。
The image processing apparatus according to claim 11.
The image processing apparatus, wherein the conversion unit converts the distance information so that the distance becomes large.
請求項12に記載の画像処理装置において、
前記変換部は、前記距離情報が長くなるにしたがって、距離の変換量を大きくすることを特徴とする画像処理装置。
The image processing apparatus according to claim 12.
The image processing apparatus, wherein the conversion unit increases a distance conversion amount as the distance information becomes longer.
請求項1〜請求項13のいずれか一項に記載の画像処理装置において、
前記入力部は、ステレオ画像データを入力することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 13,
The image processing apparatus, wherein the input unit inputs stereo image data.
請求項1〜請求項13のいずれか一項に記載の画像処理装置において、
前記入力部は、画像の分割領域ごとにフォーカス調節情報を有する画像データを入力することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 13,
The image processing apparatus, wherein the input unit inputs image data having focus adjustment information for each divided region of the image.
画像データを入力する処理と、
画像データが有する距離情報を用いて当該画像に含まれる被写体までの距離を算出する処理と、
被写体までの距離に基づいて画像の立体感を変化させるように画像データを修正する処理とをコンピュータ装置に実行させることを特徴とする画像処理プログラム。
Processing to input image data;
Processing for calculating the distance to the subject included in the image using the distance information included in the image data;
An image processing program for causing a computer device to execute a process of correcting image data so as to change a stereoscopic effect of an image based on a distance to a subject.
請求項1〜請求項15のいずれか一項に記載の画像処理装置を搭載することを特徴とするカメラ。   A camera equipped with the image processing apparatus according to claim 1.
JP2007217219A 2007-08-23 2007-08-23 Image processing apparatus, image processing program, and camera Pending JP2009053748A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007217219A JP2009053748A (en) 2007-08-23 2007-08-23 Image processing apparatus, image processing program, and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007217219A JP2009053748A (en) 2007-08-23 2007-08-23 Image processing apparatus, image processing program, and camera

Publications (1)

Publication Number Publication Date
JP2009053748A true JP2009053748A (en) 2009-03-12

Family

ID=40504813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007217219A Pending JP2009053748A (en) 2007-08-23 2007-08-23 Image processing apparatus, image processing program, and camera

Country Status (1)

Country Link
JP (1) JP2009053748A (en)

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010128A (en) * 2009-06-26 2011-01-13 Canon Inc Image reproducing apparatus, image capturing apparatus, and control method therefor
JP2011077900A (en) * 2009-09-30 2011-04-14 Fujifilm Corp Image processing apparatus, camera, and image processing method
JP2011119926A (en) * 2009-12-02 2011-06-16 Sharp Corp Video processing apparatus, video processing method and computer program
JP2011188004A (en) * 2010-03-04 2011-09-22 Victor Co Of Japan Ltd Three-dimensional video imaging device, three-dimensional video image processing apparatus and three-dimensional video imaging method
WO2012032778A1 (en) * 2010-09-08 2012-03-15 パナソニック株式会社 Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program
JP2012070305A (en) * 2010-09-27 2012-04-05 Toshiba Corp Image processor
JP2012100116A (en) * 2010-11-02 2012-05-24 Sony Corp Display processing device, display processing method, and program
WO2012095914A1 (en) * 2011-01-13 2012-07-19 パナソニック株式会社 Stereoscopic image processing device, stereoscopic image processing method, and program
JP2012142779A (en) * 2010-12-28 2012-07-26 Olympus Imaging Corp Imaging apparatus and imaging program
JP2012205148A (en) * 2011-03-25 2012-10-22 Kyocera Corp Electronic apparatus
JP2013157671A (en) * 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
JP2014014076A (en) * 2012-07-03 2014-01-23 Woodman Labs Inc Image blur based on 3d depth information
JP2014042238A (en) * 2012-08-23 2014-03-06 Stmicroelectronics (Canada) Inc Apparatus and method for depth-based image scaling of 3d visual content
WO2014041860A1 (en) * 2012-09-14 2014-03-20 ソニー株式会社 Image-processing device, image-processing method, and program
US8781215B2 (en) 2011-02-07 2014-07-15 Samsung Electronics Co., Ltd. Image processing apparatus and control method thereof
US9113074B2 (en) 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
JP2015173457A (en) * 2015-04-16 2015-10-01 株式会社ニコン Image processing device, image processing method, and program
JP2016149772A (en) * 2016-03-01 2016-08-18 京セラ株式会社 Electronic apparatus
US9787862B1 (en) 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US9792502B2 (en) 2014-07-23 2017-10-17 Gopro, Inc. Generating video summaries for a video using video summary templates
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
WO2018116580A1 (en) * 2016-12-19 2018-06-28 ソニー株式会社 Information processing device, information processing method, and program
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
WO2018155235A1 (en) * 2017-02-24 2018-08-30 ソニー株式会社 Control device, control method, program, and projection system
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US10096341B2 (en) 2015-01-05 2018-10-09 Gopro, Inc. Media identifier generation for camera-captured media
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
JP2019003694A (en) * 2018-09-28 2019-01-10 キヤノン株式会社 Image processing apparatus, control method of the same, and program
US10192585B1 (en) 2014-08-20 2019-01-29 Gopro, Inc. Scene and activity identification in video summary generation based on motion detected in a video
JP2019037004A (en) * 2018-11-26 2019-03-07 キヤノン株式会社 Image processing apparatus, control method thereof, and program
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10338955B1 (en) 2015-10-22 2019-07-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
JP2020512089A (en) * 2017-03-24 2020-04-23 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Virtual shadows that enhance depth perception
JP2020155827A (en) * 2019-03-18 2020-09-24 本田技研工業株式会社 Visible device and visible method
US11106988B2 (en) 2016-10-06 2021-08-31 Gopro, Inc. Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
WO2021245930A1 (en) * 2020-06-05 2021-12-09 日本電信電話株式会社 Image processing device, image processing method, and image processing program
JP2022504023A (en) * 2018-10-05 2022-01-13 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Image pair correction method and equipment

Cited By (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010128A (en) * 2009-06-26 2011-01-13 Canon Inc Image reproducing apparatus, image capturing apparatus, and control method therefor
US8836760B2 (en) 2009-06-26 2014-09-16 Canon Kabushiki Kaisha Image reproducing apparatus, image capturing apparatus, and control method therefor
JP2011077900A (en) * 2009-09-30 2011-04-14 Fujifilm Corp Image processing apparatus, camera, and image processing method
JP2011119926A (en) * 2009-12-02 2011-06-16 Sharp Corp Video processing apparatus, video processing method and computer program
JP2011188004A (en) * 2010-03-04 2011-09-22 Victor Co Of Japan Ltd Three-dimensional video imaging device, three-dimensional video image processing apparatus and three-dimensional video imaging method
WO2012032778A1 (en) * 2010-09-08 2012-03-15 パナソニック株式会社 Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program
US9240072B2 (en) 2010-09-08 2016-01-19 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image processing apparatus, three-dimensional image-pickup apparatus, three-dimensional image-pickup method, and program
US9143755B2 (en) 2010-09-27 2015-09-22 Kabushiki Kaisha Toshiba Image processing device
JP2012070305A (en) * 2010-09-27 2012-04-05 Toshiba Corp Image processor
JP2012100116A (en) * 2010-11-02 2012-05-24 Sony Corp Display processing device, display processing method, and program
CN102572466A (en) * 2010-11-02 2012-07-11 索尼公司 Display processing apparatus, display processing method, and display processing program
US9113074B2 (en) 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
JP2012142779A (en) * 2010-12-28 2012-07-26 Olympus Imaging Corp Imaging apparatus and imaging program
WO2012095914A1 (en) * 2011-01-13 2012-07-19 パナソニック株式会社 Stereoscopic image processing device, stereoscopic image processing method, and program
US9064331B2 (en) 2011-01-13 2015-06-23 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image processing apparatus, three-dimensional image processing method, and program
JP5909704B2 (en) * 2011-01-13 2016-04-27 パナソニックIpマネジメント株式会社 Stereoscopic image processing apparatus, stereoscopic image processing method, and program
US8781215B2 (en) 2011-02-07 2014-07-15 Samsung Electronics Co., Ltd. Image processing apparatus and control method thereof
US9462259B2 (en) 2011-03-25 2016-10-04 Kyocera Corporation Electronic device
JP2012205148A (en) * 2011-03-25 2012-10-22 Kyocera Corp Electronic apparatus
US9317957B2 (en) 2012-01-26 2016-04-19 Sony Corporation Enhancement of stereoscopic effect of an image through use of modified depth information
JP2013157671A (en) * 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
US10015469B2 (en) 2012-07-03 2018-07-03 Gopro, Inc. Image blur based on 3D depth information
JP2014014076A (en) * 2012-07-03 2014-01-23 Woodman Labs Inc Image blur based on 3d depth information
EP2683169A3 (en) * 2012-07-03 2017-04-12 GoPro, Inc. Image blur based on 3D depth information
US9838669B2 (en) 2012-08-23 2017-12-05 Stmicroelectronics (Canada), Inc. Apparatus and method for depth-based image scaling of 3D visual content
JP2014042238A (en) * 2012-08-23 2014-03-06 Stmicroelectronics (Canada) Inc Apparatus and method for depth-based image scaling of 3d visual content
CN104620283A (en) * 2012-09-14 2015-05-13 索尼公司 Image-processing device, image-processing method, and program
WO2014041860A1 (en) * 2012-09-14 2014-03-20 ソニー株式会社 Image-processing device, image-processing method, and program
JPWO2014041860A1 (en) * 2012-09-14 2016-08-18 ソニー株式会社 Image processing apparatus, image processing method, and program
US9600888B2 (en) 2012-09-14 2017-03-21 Sony Corporation Image processing device, image processing method, and program
US9792502B2 (en) 2014-07-23 2017-10-17 Gopro, Inc. Generating video summaries for a video using video summary templates
US11069380B2 (en) 2014-07-23 2021-07-20 Gopro, Inc. Scene and activity identification in video summary generation
US11776579B2 (en) 2014-07-23 2023-10-03 Gopro, Inc. Scene and activity identification in video summary generation
US10776629B2 (en) 2014-07-23 2020-09-15 Gopro, Inc. Scene and activity identification in video summary generation
US10339975B2 (en) 2014-07-23 2019-07-02 Gopro, Inc. Voice-based video tagging
US10074013B2 (en) 2014-07-23 2018-09-11 Gopro, Inc. Scene and activity identification in video summary generation
US10643663B2 (en) 2014-08-20 2020-05-05 Gopro, Inc. Scene and activity identification in video summary generation based on motion detected in a video
US10262695B2 (en) 2014-08-20 2019-04-16 Gopro, Inc. Scene and activity identification in video summary generation
US10192585B1 (en) 2014-08-20 2019-01-29 Gopro, Inc. Scene and activity identification in video summary generation based on motion detected in a video
US10559324B2 (en) 2015-01-05 2020-02-11 Gopro, Inc. Media identifier generation for camera-captured media
US10096341B2 (en) 2015-01-05 2018-10-09 Gopro, Inc. Media identifier generation for camera-captured media
JP2015173457A (en) * 2015-04-16 2015-10-01 株式会社ニコン Image processing device, image processing method, and program
US10338955B1 (en) 2015-10-22 2019-07-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US10402445B2 (en) 2016-01-19 2019-09-03 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US9787862B1 (en) 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
JP2016149772A (en) * 2016-03-01 2016-08-18 京セラ株式会社 Electronic apparatus
US10740869B2 (en) 2016-03-16 2020-08-11 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US11398008B2 (en) 2016-03-31 2022-07-26 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10817976B2 (en) 2016-03-31 2020-10-27 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US10341712B2 (en) 2016-04-07 2019-07-02 Gopro, Inc. Systems and methods for audio track selection in video editing
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US10742924B2 (en) 2016-06-15 2020-08-11 Gopro, Inc. Systems and methods for bidirectional speed ramping
US11223795B2 (en) 2016-06-15 2022-01-11 Gopro, Inc. Systems and methods for bidirectional speed ramping
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US10726272B2 (en) 2016-08-23 2020-07-28 Go Pro, Inc. Systems and methods for generating a video summary
US11062143B2 (en) 2016-08-23 2021-07-13 Gopro, Inc. Systems and methods for generating a video summary
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US11508154B2 (en) 2016-08-23 2022-11-22 Gopro, Inc. Systems and methods for generating a video summary
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10560591B2 (en) 2016-09-30 2020-02-11 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10560655B2 (en) 2016-09-30 2020-02-11 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US11106988B2 (en) 2016-10-06 2021-08-31 Gopro, Inc. Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
US10643661B2 (en) 2016-10-17 2020-05-05 Gopro, Inc. Systems and methods for determining highlight segment sets
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
US10923154B2 (en) 2016-10-17 2021-02-16 Gopro, Inc. Systems and methods for determining highlight segment sets
US11106050B2 (en) 2016-12-19 2021-08-31 Sony Corporation Information processing apparatus, and information processing method
JPWO2018116580A1 (en) * 2016-12-19 2019-11-07 ソニー株式会社 Information processing apparatus, information processing method, and program
JP7099326B2 (en) 2016-12-19 2022-07-12 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
WO2018116580A1 (en) * 2016-12-19 2018-06-28 ソニー株式会社 Information processing device, information processing method, and program
US11924402B2 (en) 2016-12-19 2024-03-05 Sony Group Corporation Information processing apparatus and information processing method
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US10776689B2 (en) 2017-02-24 2020-09-15 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
WO2018155235A1 (en) * 2017-02-24 2018-08-30 ソニー株式会社 Control device, control method, program, and projection system
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
JP2020512089A (en) * 2017-03-24 2020-04-23 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Virtual shadows that enhance depth perception
US10817992B2 (en) 2017-04-07 2020-10-27 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10817726B2 (en) 2017-05-12 2020-10-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10614315B2 (en) 2017-05-12 2020-04-07 Gopro, Inc. Systems and methods for identifying moments in videos
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
JP2019003694A (en) * 2018-09-28 2019-01-10 キヤノン株式会社 Image processing apparatus, control method of the same, and program
JP2022504023A (en) * 2018-10-05 2022-01-13 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Image pair correction method and equipment
US11595629B2 (en) 2018-10-05 2023-02-28 Vestel Elektronik Sanayi Ve Ticaret A.S. Method for modifying steroscopic pairs of images and apparatus
JP2019037004A (en) * 2018-11-26 2019-03-07 キヤノン株式会社 Image processing apparatus, control method thereof, and program
JP2020155827A (en) * 2019-03-18 2020-09-24 本田技研工業株式会社 Visible device and visible method
WO2021245930A1 (en) * 2020-06-05 2021-12-09 日本電信電話株式会社 Image processing device, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
JP2009053748A (en) Image processing apparatus, image processing program, and camera
JP5390707B2 (en) Stereoscopic panorama image synthesis apparatus, imaging apparatus, stereo panorama image synthesis method, recording medium, and computer program
US7825969B2 (en) Image stabilization using multi-exposure pattern
US8792019B2 (en) Video creation device, video creation method and non-transitory computer-readable storage medium
US8717455B2 (en) Image processing apparatus and image processing method
US9697589B2 (en) Signal processing apparatus, imaging apparatus, signal processing method and program for correcting deviation of blurring in images
JP5126344B2 (en) Imaging apparatus, imaging method, and program
JP4019200B2 (en) Camera with image display
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
JP2008236534A (en) Digital camera, and information display method and information display control program
JP2009212899A (en) Imaging device
US8860840B2 (en) Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus
JP5936358B2 (en) Image display device, image display method, imaging device and control method thereof, program, and storage medium storing the same
JP2007104248A (en) Electronic camera and program
JP2017143354A (en) Image processing apparatus and image processing method
JP2010141609A (en) Imaging apparatus
JP2023033355A (en) Image processing device and control method therefor
JP5387341B2 (en) Imaging device
JP2013175805A (en) Display device and image pickup device
JP2005229280A (en) Image processing apparatus and method, and program
JP2012142729A (en) Camera
JP2011223399A (en) Camera
JP2009139423A (en) Imaging apparatus and subject distance calculating method
JP2016134886A (en) Imaging apparatus and control method thereof
JP2008048152A (en) Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program