JP6515978B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP6515978B2 JP6515978B2 JP2017212526A JP2017212526A JP6515978B2 JP 6515978 B2 JP6515978 B2 JP 6515978B2 JP 2017212526 A JP2017212526 A JP 2017212526A JP 2017212526 A JP2017212526 A JP 2017212526A JP 6515978 B2 JP6515978 B2 JP 6515978B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- displayed
- depth
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Focusing (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Description
本技術は、ユーザ・インタフェース(UI)を用いて画像をリフォーカスする際のパラメータを指定できる画像処理装置および画像処理方法に関する。 The present technology relates to an image processing apparatus and an image processing method that can specify parameters for refocusing an image using a user interface (UI).
撮像装置において、対物レンズと撮像素子の間のライト・フィールドを記録することにより、画像を撮像した後で、自由に合焦位置を変えて画像を現像し直す(リフォーカスする)ことが出来る撮像技術が公開されている。(例えば、特許文献1参照。) In the image pickup apparatus, by recording the light field between the objective lens and the image pickup element, an image can be picked up, and then the image can be developed (refocused) freely by changing the in-focus position. The technology is open to the public. (For example, refer to patent document 1.)
また、リフォーカスする際に必要なパラメータである、合焦位置と被写界深度を指定するためのUIとして、合焦させたい被写体に画面上でタッチして合焦位置を指定し、タッチ時間の長さで被写界深度を指定するものがある。(例えば、特許文献2参照。) In addition, as a UI for specifying the in-focus position and the depth of field, which are necessary parameters for refocusing, touch the subject you want to focus on the screen to specify the in-focus position, and touch time There is one that specifies the depth of field by the length of. (For example, refer to patent document 2.)
しかし、被写界深度を指定するために、タッチ時間の長さを用いると、時間は経過するに従って増加するのみの量であるため、被写界深度を初期値から増加させる方向のみ、または減少させる方向のみの指定しか行えなかった。 However, when the touch time length is used to specify the depth of field, the amount of time only increases as time passes, so the depth of field is increased only from the initial value or decreased. I could only specify the direction of the
また、従来のUIは、その他様々な問題点を持っており、使いやすいとは言えなかった。 Also, the conventional UI has various other problems, and was not easy to use.
以上のような事情に鑑み、本技術の目的は、使いやすいUIを備えた画像処理装置および画像処理方法を提供することにある。 In view of the above circumstances, an object of the present technology is to provide an image processing apparatus and an image processing method provided with an easy-to-use UI.
上記目的を達成するため、本技術の一形態に係る情報処理装置は、撮像装置により撮像された被写体の第1の像を表示画面に表示させ、前記表示画面に表示された第1の像においてユーザにより選択された第1の位置と、この第1の位置と異なる第2の位置を各々受け付け、前記第1の位置および前記第2の位置の少なくとも一方を基に焦点を合わせるべき被写体の位置を算出し、前記第1の位置と前記第2の位置との距離に対応した被写界深度を算出し、前記算出された被写体の位置に焦点を合わせ、かつ前記算出された被写界深度を有する第2の像を前記表示画面に表示させる制御部を具備する。 In order to achieve the above object, an information processing apparatus according to an embodiment of the present technology displays a first image of a subject captured by an imaging device on a display screen, and the first image displayed on the display screen A position of an object to be focused based on at least one of the first position and the second position, each receiving a first position selected by the user and a second position different from the first position. Calculating the depth of field corresponding to the distance between the first position and the second position, focusing on the calculated position of the object, and calculating the calculated depth of field And a controller configured to display a second image having the image on the display screen.
本技術では、第1の位置と第2の位置との距離により、被写界深度を指定できるので、使いやすいUIとすることが出来る。 In the present technology, since the depth of field can be specified by the distance between the first position and the second position, an easy-to-use UI can be obtained.
上記目的を達成するため、本技術の一形態に係る情報処理装置では、前記制御部は、前記算出された被写界深度に対応するサイズを有する図形を前記表示画面に表示させる構成でもよい。 In order to achieve the above object, in the information processing apparatus according to one aspect of the present technology, the control unit may be configured to display a graphic having a size corresponding to the calculated depth of field on the display screen.
上記目的を達成するため、本技術の一形態に係る情報処理装置では、前記制御部は、前記図形として、前記第1の位置を中心とし、前記第1の位置と前記第2の位置との前記距離を半径とした円を表示する構成でもよい。 In order to achieve the above object, in the information processing apparatus according to an embodiment of the present technology, the control unit sets the figure as the first position and the second position with the first position as a center. A configuration in which a circle whose radius is the distance may be displayed.
上記目的を達成するため、本技術の一形態に係る情報処理装置は、前記第1の像および前記第2の像を、撮像レンズと受光光線に基づいて撮像データを取得する撮像素子との間に、前記撮像素子の複数画素に対して1つのマイクロレンズが割り当てられたマイクロレンズアレイを有する撮像光学系により光線の進行方向を保持した状態で取得された撮像データに基づいて生成する画像処理部を更に具備する構成でもよい。 In order to achieve the above object, an information processing apparatus according to an aspect of the present technology, between the first image and the second image, an imaging lens and an imaging element that acquires imaging data based on received light rays. An image processing unit that generates based on imaging data acquired in a state in which the traveling direction of a light beam is held by an imaging optical system having a microlens array in which one microlens is allocated to a plurality of pixels of the imaging device; May be further provided.
上記目的を達成するため、本技術の一形態に係る情報処理装置は、前記画像処理部は、前記制御部により受け付けられた前記第1の位置に応じて、前記撮像レンズからリフォーカス面までの距離情報を算出する距離情報算出部と、前記被写界深度と前記距離情報算出部により算出された距離情報に基づいてリフォーカス係数を設定するリフォーカス係数設定部と、前記リフォーカス係数設定部により設定されたリフォーカス係数に基づいて前記撮像データの並べ替えを行うことにより任意の焦点における画像を生成する並べ替え処理部とを有する構成でもよい。 In order to achieve the above object, in the information processing apparatus according to one aspect of the present technology, the image processing unit is configured to move from the imaging lens to the refocusing surface according to the first position received by the control unit. A distance information calculation unit that calculates distance information, a refocus coefficient setting unit that sets a refocus coefficient based on the depth of field and the distance information calculated by the distance information calculation unit, and the refocus coefficient setting unit And a reordering unit configured to generate an image at an arbitrary focal point by reordering the imaging data based on the refocusing coefficient set by the user.
上記目的を達成するため、本技術の一形態に係る情報処理装置では、前記制御部は、前記図形として、前記第1の位置と前記第2の位置を結ぶ線分を直径とした円を表示する構成でもよい。 In order to achieve the above object, in the information processing apparatus according to one aspect of the present technology, the control unit displays, as the graphic, a circle whose diameter is a line connecting the first position and the second position. The configuration may be
上記目的を達成するため、本技術の一形態に係る電子機器は、撮像装置により撮像された被写体の第1の像を表示画面に表示させ、前記表示画面に表示された第1の像においてユーザにより選択された第1の位置と、この第1の位置と異なる第2の位置を各々受け付け、前記第1の位置および前記第2の位置の少なくとも一方を基に焦点を合わせるべき被写体の位置を算出し、前記第1の位置と前記第2の位置との距離に対応した被写界深度を算出し、前記算出された被写体の位置に焦点を合わせ、かつ前記算出された被写界深度を有する第2の像を前記表示画面に表示させる制御部と、前記表示画面を有する表示部と、前記第1の位置と前記第2の位置を検知可能な位置検知部とを具備する。 In order to achieve the above object, an electronic device according to an aspect of the present technology causes a display screen to display a first image of a subject captured by an imaging device, and a user displays the first image displayed on the display screen. Receiving a first position selected by the control unit and a second position different from the first position, and setting a position of an object to be focused based on at least one of the first position and the second position Calculating the depth of field corresponding to the distance between the first position and the second position, focusing on the calculated position of the subject, and calculating the calculated depth of field And a display unit having the display screen, and a position detection unit capable of detecting the first position and the second position.
上記目的を達成するため、本技術の一形態に係るサーバは、撮像装置により撮像された被写体の第1の像を端末装置に送信し、前記第1の像が表示された前記端末装置においてユーザにより選択された第1の位置と、この第1の位置と異なる第2の位置を前記端末装置から受信し、前記第1の位置および前記第2の位置の少なくとも一方を基に焦点を合わせるべき被写体の位置を算出し、前記第1の位置と前記第2の位置との距離に対応した被写界深度を算出し、前記算出された被写体の位置に焦点を合わせ、かつ前記算出された被写界深度を有する第2の像を前記端末装置に送信する制御部を具備する。 In order to achieve the above object, a server according to an aspect of the present technology transmits a first image of a subject captured by an imaging device to a terminal device, and a user at the terminal device on which the first image is displayed To receive from the terminal device a first position selected by the second position and a second position different from the first position, and focus based on at least one of the first position and the second position The position of the subject is calculated, the depth of field corresponding to the distance between the first position and the second position is calculated, the calculated position of the subject is focused, and the calculated object is calculated. A control unit is provided for transmitting a second image having a depth of field to the terminal device.
上記目的を達成するため、本技術の一形態に係る情報処理プログラムは、撮像装置により撮像された被写体の第1の像を表示画面に表示させ、前記表示画面に表示された第1の像においてユーザにより選択された第1の位置と、この第1の位置と異なる第2の位置を各々受け付け、前記第1の位置および前記第2の位置の少なくとも一方を基に焦点を合わせるべき被写体の位置を算出し、前記第1の位置と前記第2の位置との距離に対応した被写界深度を算出し、前記算出された被写体の位置に焦点を合わせ、かつ前記算出された被写界深度を有する第2の像を前記表示画面に表示させる制御部としてコンピュータを機能させる。 In order to achieve the above object, an information processing program according to an aspect of the present technology displays a first image of a subject imaged by an imaging device on a display screen, and the first image displayed on the display screen A position of an object to be focused based on at least one of the first position and the second position, each receiving a first position selected by the user and a second position different from the first position. Calculating the depth of field corresponding to the distance between the first position and the second position, focusing on the calculated position of the object, and calculating the calculated depth of field And causing the computer to function as a control unit for causing the display screen to display a second image having
上記目的を達成するため、本技術の一形態に係る情報処理方法では、撮像装置により撮像された被写体の第1の像を表示画面に表示させ、前記表示画面に表示された第1の像においてユーザにより選択された第1の位置と、この第1の位置と異なる第2の位置を制御部にて各々受け付け、前記第1の位置および前記第2の位置の少なくとも一方を基に焦点を合わせるべき被写体の位置を制御部により算出し、前記第1の位置と前記第2の位置との距離に対応した被写界深度を制御部により算出し、前記算出された被写体の位置に焦点を合わせ、かつ前記算出された被写界深度を有する第2の像を前記表示画面に表示させる。 In order to achieve the above object, in an information processing method according to an aspect of the present technology, a first image of a subject captured by an imaging device is displayed on a display screen, and the first image displayed on the display screen is displayed. The control unit receives a first position selected by the user and a second position different from the first position, and focuses on at least one of the first position and the second position. The control unit calculates the position of the subject to be calculated, the depth of field corresponding to the distance between the first position and the second position is calculated by the control unit, and the calculated position of the subject is focused. And a second image having the calculated depth of field is displayed on the display screen.
以上のように、本技術によれば、使いやすいUIを備えることが出来る。 As described above, according to the present technology, an easy-to-use UI can be provided.
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[装置の構成について]
本技術に係る表示装置の構成を説明する。表示装置にはリフォーカス画像を撮像する撮像装置が含まれていてもよい。最初に、撮像装置の構成について説明する。
Hereinafter, embodiments according to the present technology will be described with reference to the drawings.
[About device configuration]
The configuration of a display device according to the present technology will be described. The display device may include an imaging device that captures a refocused image. First, the configuration of the imaging device will be described.
[撮像装置の構成について]
図1は、本技術の一実施の形態に係る撮像装置1の全体構成を表すものである。撮像装置1は、撮像対象物2を撮像して画像処理を施すことにより画像データDoutを出力するものである。撮像装置1は、開口絞り10を有する撮像レンズ11と、マイクロレンズアレイ12と、撮像素子13と、画像処理部14と、撮像素子駆動部15と、制御部16とから構成されている。
[About the configuration of the imaging device]
FIG. 1 illustrates the entire configuration of an imaging device 1 according to an embodiment of the present technology. The imaging device 1 outputs image data Dout by imaging the imaging object 2 and performing image processing. The imaging device 1 includes an imaging lens 11 having an aperture stop 10, a microlens array 12, an imaging element 13, an image processing unit 14, an imaging element driving unit 15, and a control unit 16.
開口絞り10は、撮像レンズ11の光学的な開口絞りである。この開口絞り10の開口の形状(例えば円形状)に相似形となる撮像対象物2の像が撮像素子13上にマイクロレンズごとに形成されるようになっている。 The aperture stop 10 is an optical aperture stop of the imaging lens 11. An image of the object to be imaged 2 having a similar shape to the shape (for example, a circular shape) of the aperture of the aperture stop 10 is formed on the imaging element 13 for each microlens.
撮像レンズ11は、撮像対象物2を撮像するためのメインレンズであり、例えば、ビデオカメラやスチルカメラ等で使用される一般的な撮像レンズにより構成されている。 The imaging lens 11 is a main lens for imaging the imaging target object 2 and is configured of, for example, a general imaging lens used in a video camera, a still camera or the like.
マイクロレンズアレイ12は、複数のマイクロレンズが2次元配列したものであり、撮像レンズ11の焦点面(結像面)に配置されている。各マイクロレンズは、例えば円形の平面形状を有しており、例えば固体レンズや液晶レンズ、回折レンズなどにより構成されている。 The microlens array 12 is a two-dimensional array of a plurality of microlenses, and is disposed on the focal plane (imaging plane) of the imaging lens 11. Each of the microlenses has, for example, a circular planar shape, and is formed of, for example, a solid lens, a liquid crystal lens, or a diffractive lens.
撮像素子13は、マイクロレンズアレイ12からの光線を受光して複数の画素データを含む撮像データD0(多視点画像)を取得するものであり、マイクロレンズアレイ12の焦点面(結像面)に配置されている。この撮像素子13は、マトリクス状に配列された複数のCCD(Charge Coupled Device;電荷結合素子)またはCMOS(Complementary Metal-Oxide Semiconductor)などの2次元固体撮像素子により構成されている。 The imaging device 13 receives light rays from the microlens array 12 to acquire imaging data D0 (multi-viewpoint image) including a plurality of pixel data, and is provided on the focal plane (imaging plane) of the microlens array 12. It is arranged. The imaging device 13 is configured of a plurality of two-dimensional solid-state imaging devices such as a plurality of charge coupled devices (CCDs) or complementary metal-oxide semiconductors (CMOSs) arranged in a matrix.
画像処理部14は、撮像素子13で得られた撮像データD0に対して、所定の画像処理を施すことにより、任意の焦点に設定した画像(再構築画像、リフォーカス画像)データDoutを生成できるようになっている。この際、画像処理部14では、撮像データD0から所定の距離情報(ディスパリティマップまたはデプスマップ)が抽出され、この距離情報に基づいて撮像データの並べ替えが行われるようになっている。この画像処理部14の詳細な構成については後述する。画像処理部14の処理は、プログラムをコンピュータに実行させることにより実現されてもよい。 The image processing unit 14 can generate image (reconstructed image, refocused image) data Dout set to an arbitrary focus by performing predetermined image processing on the imaging data D0 obtained by the imaging device 13 It is supposed to be. At this time, the image processing unit 14 extracts predetermined distance information (disparity map or depth map) from the imaging data D0, and rearranges the imaging data based on the distance information. The detailed configuration of the image processing unit 14 will be described later. The processing of the image processing unit 14 may be realized by causing a computer to execute a program.
撮像素子駆動部15は、撮像素子13を駆動してその受光動作の制御を行うものである。 The imaging device drive unit 15 drives the imaging device 13 to control the light receiving operation thereof.
制御部16は、画像処理部14、撮像素子駆動部15の動作を制御するものであり、例えばマイクロコンピュータなどにより構成される。 The control unit 16 controls operations of the image processing unit 14 and the imaging device driving unit 15, and is configured of, for example, a microcomputer.
ここで、図2を参照して、画像処理部14の詳細な構成について説明する。図2は、画像処理部14の全体構成を表す機能ブロック図である。画像処理部14は、欠陥補正部141、クランプ処理部142、距離情報抽出部143、リフォーカス係数設定部149、並べ替え処理部144、ノイズ低減部145、輪郭強調部146、ホワイトバランス調整部147、およびガンマ補正部148から構成されている。 Here, the detailed configuration of the image processing unit 14 will be described with reference to FIG. FIG. 2 is a functional block diagram showing the entire configuration of the image processing unit 14. The image processing unit 14 includes a defect correction unit 141, a clamp processing unit 142, a distance information extraction unit 143, a refocus coefficient setting unit 149, a rearrangement processing unit 144, a noise reduction unit 145, an outline emphasis unit 146, and a white balance adjustment unit 147. And a gamma correction unit 148.
欠陥補正部141は、撮像データD0に含まれる黒とび等の欠陥(撮像素子13の素子自体の異常に起因した欠陥)を補正するものである。クランプ処理部142は、欠陥補正部141による欠陥補正後の撮像データにおいて、各画素データの黒レベルの設定処理(クランプ処理)を行うものである。また、クランプ処理がなされた撮像データに対して、デモザイク処理などのカラー補間処理を施すようにしてもよい。 The defect correction unit 141 corrects a defect (such as a defect caused by an abnormality in the element itself of the image pickup device 13) such as an overexposure included in the imaging data D0. The clamp processing unit 142 performs setting processing (clamp processing) of the black level of each pixel data in the image pickup data after the defect correction by the defect correction unit 141. In addition, color interpolation processing such as demosaicing processing may be performed on the imaging data subjected to the clamping processing.
距離情報抽出部143は、撮像データD0に基づいて所定の距離情報を抽出するものであり、例えば、以下のような位相差検出部および距離情報算出部(いずれも図示せず)を含んで構成されている。 The distance information extraction unit 143 extracts predetermined distance information based on the imaging data D0, and includes, for example, a phase difference detection unit and a distance information calculation unit (all not shown) as follows. It is done.
位相差検出部は、クランプ処理部142により供給される撮像データD1に基づいて、互いに視差の異なる複数の視差画像(異なる視点による任意視点画像)を生成し、これら複数の視差画像のうち少なくとも2枚の視差画像間の位相差を検出するものである。なお、位相差を検出するための視差画像は、撮像素子13上で受光したユニット像同士の間で、同一の位置に配置された画素Pで取得された画素データを抽出して合成することにより生成することができる。このため、生成される視差画像の数は、1つのマイクロレンズに割り当てられた画素と同数となる。 The phase difference detection unit generates a plurality of parallax images (arbitrary viewpoint images from different viewpoints) having different parallaxes based on the imaging data D1 supplied by the clamp processing unit 142, and at least 2 of the plurality of parallax images. The phase difference between the parallax images of the sheets is detected. In addition, the parallax image for detecting a phase difference extracts the pixel data acquired by the pixel P arrange | positioned in the same position between unit images light-received on the image pick-up element 13, and is synthesize | combined by combining. Can be generated. Therefore, the number of parallax images generated is the same as the number of pixels assigned to one microlens.
距離情報算出部は、位相差検出部によって検出された位相差に基づいて、撮像レンズと合焦させたい(合焦位置を定める)リフォーカス面との間の距離情報(後述の距離d)、すなわち、リフォーカス時の撮像レンズの物体側の焦点距離を算出するものである。 The distance information calculation unit, based on the phase difference detected by the phase difference detection unit, distance information (distance d described later) between the imaging lens and the refocus plane to be focused (determine the in-focus position), That is, the focal length on the object side of the imaging lens at the time of refocusing is calculated.
リフォーカス係数設定部149は、距離情報抽出部143により抽出された(距離情報算出部により算出された)距離情報および既定の被写界深度情報に基づいて、並べ替え処理部144における積分処理(リフォーカス演算処理)に用いられるリフォーカス係数αを設定するものである。なお、撮像データD1は、リフォーカス係数αと共に並べ替え処理部144に入力されるようになっている。 The refocusing coefficient setting unit 149 performs integration processing in the sorting processing unit 144 based on the distance information (calculated by the distance information calculating unit) extracted by the distance information extracting unit 143 and the predetermined depth of field information ( The refocusing coefficient α to be used for the refocusing calculation process is set. The imaging data D1 is input to the rearrangement processing unit 144 together with the refocusing coefficient α.
並べ替え処理部144は、リフォーカス係数設定部149により設定されたリフォーカス係数αを用いて、撮像データD1に対して、所定の並べ替え処理、例えば「ライト・フィールド・フォトグラフィー」と呼ばれる手法を用いたリフォーカス演算処理を施すことにより、撮像データD2(リフォーカス画像)を生成するものである。 The reordering unit 144 performs a predetermined reordering process on the imaging data D1 using the refocusing coefficient α set by the refocusing coefficient setting unit 149, for example, a method called “light field photography”. The imaging data D2 (refocused image) is generated by performing refocusing calculation processing using the above.
なお、リフォーカス画像においては、指定された合焦位置を間に挟んで、その手前方向および奥側方向に所定量だけ被写界深度の深さが設けられるが、合焦位置から手前方向の被写界深度と合焦位置から奥側方向の被写界深度は、等量でもよい。または、両方の被写界深度は、一定の比率で配分されてもよいし、任意の深さに設定されてもよい。 In the refocused image, the depth of field is provided by a predetermined amount in the front and back directions with the designated in-focus position in between, but from the in-focus position to the front, The depth of field and the depth of field in the back side direction from the in-focus position may be equal. Alternatively, both depths of field may be distributed at a constant ratio, or may be set to any depth.
ノイズ低減部145は、並べ替え処理部144により供給される撮像データD2に含まれるノイズ(例えば、暗い場所や感度の足りない場所で撮像したときに発生するノイズ)を低減する処理を行うものである。輪郭強調部146は、ノイズ低減部145により供給される撮像データに対し、映像の輪郭を強調する輪郭強調処理を行うものである。 The noise reduction unit 145 performs processing for reducing noise (for example, noise generated when imaging is performed in a dark place or a place where the sensitivity is insufficient) included in the imaging data D2 supplied by the rearrangement processing unit 144. is there. The contour emphasizing unit 146 performs contour emphasizing processing for emphasizing the contour of the image on the imaging data supplied by the noise reducing unit 145.
ホワイトバランス調整部147は、輪郭強調部146により供給される撮像データに対し、カラーフィルタの通過特性や撮像素子13の分光感度などのデバイスの個体差や照明条件などの影響に起因した色バランスの調整処理(ホワイトバランス調整処理)を行うものである。 The white balance adjustment unit 147 performs color balance on the imaging data supplied by the outline emphasizing unit 146 due to the influence of individual differences in devices such as the pass characteristics of the color filter and the spectral sensitivity of the imaging device 13 and illumination conditions. Adjustment processing (white balance adjustment processing) is performed.
ガンマ補正部148は、ホワイトバランス調整部147により供給される撮像データに対して所定のガンマ補正(明暗やコントラストの補正)を行うことにより、撮像データDoutを生成するものである。 The gamma correction unit 148 generates imaging data Dout by performing predetermined gamma correction (correction of contrast and brightness) on the imaging data supplied by the white balance adjustment unit 147.
[表示装置の構成について]
次に、表示装置の全体構成を説明する。図3は、撮像装置1を搭載したタッチパネル式の表示装置2の全体構成を表す機能ブロック図である。
[Configuration of Display Device]
Next, the entire configuration of the display device will be described. FIG. 3 is a functional block diagram showing an entire configuration of a touch panel type display device 2 in which the imaging device 1 is mounted.
表示装置2は、表示画像面内の任意の位置でフォーカス調整を行うことができるものであり、表示した画像(撮像データDout)から、これとは異なる焦点面に設定された画像(撮像データDRout)への切り替えができるようになっている。この表示装置2は、画像処理部14を含む撮像装置1、タッチパネル150、距離情報算出部151、リフォーカス係数設定部149、並べ替え処理部144、ノイズ低減部145、輪郭強調部146、ホワイトバランス調整部147、ガンマ補正部148、およびこれらの機能ブロックを統合的に制御する制御部(図示せず)を含んで構成されている。なお、上記撮像装置1と同様の画像処理については同一の符号を付し、適宜説明を省略する。 The display device 2 can perform focus adjustment at an arbitrary position in the display image plane, and an image (imaging data DRout) set on a different focal plane from the displayed image (imaging data Dout) It is possible to switch to). The display device 2 includes an imaging device 1 including an image processing unit 14, a touch panel 150, a distance information calculation unit 151, a refocus coefficient setting unit 149, a rearrangement processing unit 144, a noise reduction unit 145, an outline emphasizing unit 146, and a white balance. The adjustment unit 147, the gamma correction unit 148, and a control unit (not shown) that integrally controls these functional blocks are configured. In addition, about the image processing similar to the said imaging device 1, the same code | symbol is attached and description is abbreviate | omitted suitably.
タッチパネル150は、撮像装置1から出力された撮像データDoutに基づく再構築画像を表示パネル(表示部)に表示する表示制御部と、表示された画像の任意の位置が指定されたときに、その位置を検知する位置検知部とから構成されている。例えば、表示パネルに指やペンなどが接触することにより、その接触した位置が、例えば感圧式や静電式によって検知されるようになっている。表示パネルとしては、液晶パネルや有機EL(Electro Luminescence)パネルなどが用いられる。 The touch panel 150 has a display control unit that displays a reconstructed image based on the imaging data Dout output from the imaging device 1 on a display panel (display unit), and an arbitrary position of the displayed image is designated. It is comprised from the position detection part which detects a position. For example, when a finger, a pen, or the like contacts the display panel, the position where the contact is made can be detected by, for example, a pressure-sensitive type or an electrostatic type. As the display panel, a liquid crystal panel, an organic EL (Electro Luminescence) panel, or the like is used.
距離情報算出部151は、上述した画像処理部14の距離情報抽出部143(位相差検出部)で検出した各視差画像同士の位相差ディスパリティマップまたはデプスマップDMから、タッチパネル150により検知された位置(Pixel)に応じて位相差(ディスパリティ)を選択し、このディスパリティに基づいて、距離dを算出するものである。 The distance information calculation unit 151 is detected by the touch panel 150 from the phase difference disparity map or depth map DM of each parallax image detected by the distance information extraction unit 143 (phase difference detection unit) of the image processing unit 14 described above. The phase difference (disparity) is selected according to the position (Pixel), and the distance d is calculated based on the disparity.
例えば、表示されている画像(以下、画像IMG0という)の指定された位置においてフォーカス(合焦)した画像(以下、画像IMG1という)を生成したい場合には、距離dを、撮像レンズと、タッチパネル150により検知された位置で合焦となるようなリフォーカス面との間の距離として、検知された位置におけるディスパリティを用いて算出するようにする。 For example, when it is desired to generate an image (hereinafter referred to as image IMG1) focused (focused) at a designated position of a displayed image (hereinafter referred to as image IMG0), the distance d is It is calculated using the disparity at the detected position as the distance between the position detected by the position 150 and the refocus plane where the in-focus is achieved.
このような表示装置2では、タッチパネル150において、表示制御部により、撮像データDoutに基づく画像IMG0が表示され、画像IMG0の任意の位置が指定されると、指定された位置が検知されて、位置についての情報(位置情報)および被写界深度についての情報(被写界深度情報)が距離情報算出部151に入力される。 In the display device 2 as described above, the display controller displays the image IMG0 based on the imaging data Dout on the touch panel 150. When an arbitrary position of the image IMG0 is specified, the specified position is detected, and the position is detected. Information (position information) and information about the depth of field (depth of field information) are input to the distance information calculation unit 151.
一方、距離情報算出部151には、撮像装置1の画像処理部14における距離情報抽出部143(位相差検出部)から各視差画像同士のディスパリティマップまたはデプスマップDMが入力される。 On the other hand, the distance information calculation unit 151 receives the disparity map or depth map DM of each parallax image from the distance information extraction unit 143 (phase difference detection unit) in the image processing unit 14 of the imaging device 1.
距離情報算出部151では、例えば指定された位置に対応するディスパリティが選択されたのち、この選択されたディスパリティに基づいて距離dが算出され、撮像データDoutと共にリフォーカス係数設定部149に入力される。 For example, after the disparity corresponding to the designated position is selected in the distance information calculating unit 151, the distance d is calculated based on the selected disparity, and is input to the refocusing coefficient setting unit 149 together with the imaging data Dout. Be done.
リフォーカス係数設定部149では、上述したように距離dおよび被写界深度情報に基づいてリフォーカス係数αが設定され、撮像データDoutと共に並べ替え処理部144に入力される。 As described above, the refocusing coefficient setting unit 149 sets the refocusing coefficient α based on the distance d and the depth of field information, and inputs the refocusing coefficient α together with the imaging data Dout to the rearrangement processing unit 144.
並べ替え処理部144では、リフォーカス係数αに基づいて撮像データDoutの並べ替え処理がなされ、例えば画像IMG0の指定された位置において合焦した画像(撮像データD3)が再構築される。このようにして再構築された撮像データD3は、ノイズ低減部145、輪郭強調部146、ホワイトバランス調整部147、およびガンマ補正部148による所定の画像処理を施され、撮像データDRoutとして、タッチパネル150の表示制御部に入力される。このようにして、表示制御部により、表示パネルには画像IMG0において指定された位置で合焦した画像IMG1が表示される。 The rearrangement processing unit 144 rearranges the imaging data Dout based on the refocusing coefficient α, and reconstructs an image (imaging data D3) focused at a designated position of the image IMG0, for example. The imaging data D3 thus reconstructed is subjected to predetermined image processing by the noise reducing unit 145, the outline emphasizing unit 146, the white balance adjusting unit 147, and the gamma correcting unit 148, and the touch panel 150 is used as the imaging data DRout. Is input to the display control unit of Thus, the display control unit causes the display panel to display the image IMG1 focused at the position designated in the image IMG0.
以上のように、画像IMG0の指定された位置に応じてディスパリティを検出し、所定の距離情報を算出してリフォーカス係数αを設定し、撮像データの並べ替えを行うようにしたので、画像IMG0から任意の位置でフォーカス調整がなされた画像IMG1に瞬時に切り替えて表示することが可能となる。 As described above, the disparity is detected according to the designated position of the image IMG0, the predetermined distance information is calculated, the refocusing coefficient α is set, and the imaging data is rearranged. It is possible to instantaneously switch and display the image IMG1 on which focus adjustment has been performed at any position from IMG0.
<変形例1(撮像装置と表示装置の分離)>
なお、上記の説明では、表示装置2に撮像装置1が含まれる構成としたが、撮像装置1と表示装置2Bとが分かれている構成でもよい。その場合、表示装置2Bには、外部にある撮像装置1や、クラウド上にあるサーバなどから、撮像データDoutおよびDMが供給される。
<Modification 1 (Separation of Imaging Device and Display Device)>
In the above description, although the display device 2 includes the imaging device 1, the imaging device 1 and the display device 2B may be separated. In that case, imaging data Dout and DM are supplied to the display device 2B from the imaging device 1 outside, a server on the cloud, or the like.
<変形例2(表示装置の簡易化とクラウドの利用)>
また、変形例1の表示装置2Bから、距離情報算出部151、リフォーカス係数設定部149、並び替え処理部144、ノイズ低減部145、輪郭強調部146、ホワイトバランス調整部147、およびガンマ補正部148を除いた表示装置2Cを用いる構成でもよい。その場合、表示装置2Cには、最初、クラウド上のサーバから撮像データDoutが供給され、タッチパネル150の表示パネルに画像IMG0が表示される。
<Modification 2 (Simplification of Display Device and Use of Cloud)>
Further, from the display device 2B of the first modification, the distance information calculation unit 151, the refocus coefficient setting unit 149, the rearrangement processing unit 144, the noise reduction unit 145, the outline emphasis unit 146, the white balance adjustment unit 147, and the gamma correction unit A configuration using the display device 2C except 148 may be employed. In that case, first, the imaging data Dout is supplied from the server on the cloud to the display device 2C, and the image IMG0 is displayed on the display panel of the touch panel 150.
ユーザが、合焦させたい被写体の位置にタッチして位置情報を指定し、さらに、後述する方法により被写界深度情報を指定すると、表示装置2Cは、位置情報および被写界深度情報をサーバに送信する。 When the user touches the position of the object to be focused on to designate the position information, and further designates the depth of field information by the method described later, the display device 2C obtains the position information and the depth of field information as a server. Send to
サーバは、距離情報算出部151、リフォーカス係数設定部149、並び替え処理部144、ノイズ低減部145、輪郭強調部146、ホワイトバランス調整部147、およびガンマ補正部148を含んで構成されている。サーバは、これらの機能ブロックにより、撮像データDRoutを生成し、表示装置2Cに送信する。 The server includes a distance information calculation unit 151, a refocus coefficient setting unit 149, a rearrangement processing unit 144, a noise reduction unit 145, an outline emphasis unit 146, a white balance adjustment unit 147, and a gamma correction unit 148. . The server generates imaging data DRout from these functional blocks and transmits the imaging data DRout to the display device 2C.
表示装置2Cは、サーバから供給された撮像データDRoutを、タッチパネル150の表示パネルに画像IMG1として表示する。 The display device 2C displays the imaging data DRout supplied from the server as an image IMG1 on the display panel of the touch panel 150.
[リフォーカス用のUIについて]
次に、リフォーカス時の合焦位置および被写界深度を指定するUIについて、詳細を説明する。
[About UI for Refocus]
Next, details of the UI for specifying the in-focus position and the depth of field at the time of refocusing will be described.
(合焦位置の指定)
最初に、本技術のUIにおける、合焦位置の指定方法について説明する。ユーザが所望する位置でリフォーカスするための合焦位置の指定は、ユーザがタッチパネル150上に表示されている画像IMG0上で、合焦させたい被写体にタッチすることにより指定する。
(Specifying the in-focus position)
First, a method of specifying a focusing position in the UI of the present technology will be described. The designation of the in-focus position for refocusing at a position desired by the user is designated by touching the object to be focused on on the image IMG0 displayed on the touch panel 150 by the user.
図4は、ユーザが、画像IMG0の表示されているタッチパネル150上で、被写体SUB1にタッチし、画像IMG1が表示された様子を示す図である。この図から分かるように、ユーザが被写体SUB1をタッチすることにより、合焦位置として被写体SUB1までの距離dが指定され、リフォーカスが行われ、被写体SUB1に合焦し、被写体SUB1より後方にある被写体SUB2などがぼけた画像IMG1が表示されている。 FIG. 4 is a diagram showing a state in which the user touches the subject SUB1 on the touch panel 150 on which the image IMG0 is displayed, and the image IMG1 is displayed. As can be seen from this figure, when the user touches the subject SUB1, the distance d to the subject SUB1 is specified as the in-focus position, refocusing is performed, the subject SUB1 is in focus, and the subject SUB1 is behind An image IMG1 in which an object SUB2 or the like is blurred is displayed.
そして、タッチ位置P0の周辺には、画像IMG1の被写界深度の深さを相対的に表すサークルCIR0が表示されている。 Then, a circle CIR0 relatively representing the depth of the depth of field of the image IMG1 is displayed around the touch position P0.
なお、このサークルCIR0は、ユーザがタッチパネル150にタッチした位置P0を中心として、規定値または前回指定した被写界深度の相対的な大きさを半径として描画される。 The circle CIR0 is drawn with the relative value of the specified value or the depth of field specified last time as a radius centering on the position P0 where the user touches the touch panel 150.
(デプスマップの例)
UIとして表示パネル上に表示されるものでは無いが、タッチパネル150上でユーザがタッチした座標位置に基づき、距離dを求めるためのデプスマップDMの例を図5に示す。
(Example of depth map)
Although not displayed on the display panel as a UI, an example of a depth map DM for obtaining the distance d based on the coordinate position touched by the user on the touch panel 150 is shown in FIG.
この図では、各被写体の撮像装置からの距離dが、色の濃淡で示されている。1つの被写体では、距離dがほぼ等しいので、色の濃さとしてほぼ等しい濃さに表現されている。なお、実際のデプスマップDMでは、各画素がそれぞれ距離dの値を保有する構成となる。 In this figure, the distance d from the imaging device of each subject is shown by shading of color. In one subject, since the distances d are almost equal, they are expressed in approximately the same depth as the color depth. In the actual depth map DM, each pixel holds the value of the distance d.
ユーザがタッチパネル150上をタッチすると、位置検出部がタッチした位置のXY座標を検出し、このデプスマップDMと照らし合わせることにより、タッチ位置の距離dを求めることが出来る。 When the user touches the touch panel 150, XY coordinates of the position touched by the position detection unit are detected, and the distance d of the touch position can be obtained by comparing with the depth map DM.
このデプスマップDMは、上述したディスパリティマップに基づき算出された距離dを画素ごとの値として持たせることにより生成することが出来る。 The depth map DM can be generated by providing the distance d calculated based on the above-described disparity map as a value for each pixel.
(被写界深度の指定)
次に、本技術のUIにおける、被写界深度の指定方法について説明する。ユーザが所望する被写界深度でリフォーカスするための被写界深度の指定は、ユーザが合焦位置を指定するために最初にタッチした位置P0の周囲に描画されるサークルCIR0の大きさを変更することにより行われる。大きさの変更は、次にタッチした位置P1をドラッグして位置P0とP1の間の距離を変更することにより行われる。
(Specifying the depth of field)
Next, a method of specifying the depth of field in the UI of the present technology will be described. The specification of the depth of field for refocusing at the depth of field desired by the user is performed by setting the size of the circle CIR0 drawn around the position P0 which the user first touched to specify the in-focus position. It is done by changing. The size change is performed by dragging the next touched position P1 to change the distance between the positions P0 and P1.
図6は、ユーザが、被写体SUB2上を人差し指によりタッチして表示されているサークルCIR0を、次に親指によりタッチしたままドラッグし、より半径の大きいサークルCIR1まで広げた様子を示す図である。 FIG. 6 is a diagram showing a state in which the user touches the circle CIR0 displayed by touching the subject SUB2 with the index finger, and then dragging the circle CIR0 while touching it with the thumb to expand it to a circle CIR1 with a larger radius.
この図では、まだ被写界深度が浅いので、被写体SUB2には合焦しているが、被写体SUB2よりも手前にある被写体SUB1はぼけている。また、被写体SUB2よりも後方にある被写体SUB3などもぼけている。 In this figure, since the depth of field is still shallow, the subject SUB2 is in focus, but the subject SUB1 in front of the subject SUB2 is blurred. Further, the subject SUB3 behind the subject SUB2 is also blurred.
次に、被写界深度をさらに変更した場合の様子を示す。図7は、ユーザが、被写体SUB2上を人差し指によりタッチして表示されたサークルCIR0を、親指によるドラッグにより、更に半径の大きいサークルCIR2まで広げた様子を示す図である。 Next, the situation when the depth of field is further changed is shown. FIG. 7 is a view showing a state in which the user extends the circle CIR0 displayed by touching the subject SUB2 with the forefinger to a circle CIR2 with a larger radius by dragging with the thumb.
この図では、被写界深度の深さがさらに広げられたので、前図とは異なり、被写体SUB2に加えて、その前後にある被写体SUB1およびSUB3にも合焦している。
以上、リフォーカス用のUIについて説明した。
In this figure, since the depth of field is further expanded, in addition to the subject SUB2, the subjects SUB1 and SUB3 located before and after the subject SUB2 are also in focus, unlike the previous figure.
So far, the UI for refocusing has been described.
[UIの処理の流れについて]
次に、本技術のリフォーカス用UIの処理の流れについて説明する。図8は、リフォーカス用UIの処理の流れについて説明するフローチャートである。
[Flow of processing of UI]
Next, the flow of processing of the refocusing UI according to the present technology will be described. FIG. 8 is a flowchart for explaining the flow of processing of the refocusing UI.
(2点をタッチする場合の処理)
最初に、1点目、次いで2点目をタッチする場合の処理について説明する。
まず、画像処理部14が、合焦位置および被写界深度のパラメータを初期値に設定し、これらの初期値を用いて撮像データDoutを生成する。(ステップS1)
(Processing when touching 2 points)
First, processing in the case of touching the first point and then the second point will be described.
First, the image processing unit 14 sets parameters of the in-focus position and the depth of field to initial values, and generates imaging data Dout using these initial values. (Step S1)
次に、タッチパネル150の表示制御部が、表示パネル上に、撮像データDoutに基づいた画像IMG0を表示する。(ステップS2) Next, the display control unit of the touch panel 150 displays an image IMG0 based on the imaging data Dout on the display panel. (Step S2)
次に、タッチパネル150の位置検知部が、タッチパネル150に1点目の接触があったか否かを判断する。(ステップS3) Next, the position detection unit of the touch panel 150 determines whether or not the first touch on the touch panel 150 has occurred. (Step S3)
1点目の接触があった場合(ステップS3のYes)、距離情報算出部151は、接触があった位置P0の座標を位置検知部から取得し、画像処理部14から取得したデプスマップDMに基づき、その位置P0の距離dを求める。(ステップS4) When the first point of contact is made (Yes in step S3), the distance information calculation unit 151 acquires the coordinates of the position P0 where the contact is made from the position detection unit, and uses the depth map DM acquired from the image processing unit 14 Based on this, the distance d of the position P0 is determined. (Step S4)
次に、リフォーカス係数設定部149が、求められた距離dから、合焦位置のパラメータを変更し、リフォーカス係数αを再設定する。(ステップS5) Next, the refocusing coefficient setting unit 149 changes the parameter of the in-focus position from the calculated distance d, and resets the refocusing coefficient α. (Step S5)
次に、並べ替え処理部144により、再設定されたリフォーカス係数αを用いて、リフォーカス画像の再構築が行われ、画像IMG1が生成される。生成された画像IMG1は、タッチパネル150の表示制御部により表示パネル上に表示される。(ステップS6) Next, the reordering unit 144 reconstructs the refocused image using the reset refocusing coefficient α, and the image IMG1 is generated. The generated image IMG1 is displayed on the display panel by the display control unit of the touch panel 150. (Step S6)
次に、タッチパネル150の表示制御部が、設定された被写界深度に対応した大きさのサークルを表示パネル上に描画する。(ステップS7) Next, the display control unit of the touch panel 150 draws a circle having a size corresponding to the set depth of field on the display panel. (Step S7)
次に、タッチパネル150の位置検知部が、タッチパネル150に2点目の接触があったか否かを判断する。(ステップS8) Next, the position detection unit of the touch panel 150 determines whether or not there is a second touch on the touch panel 150. (Step S8)
2点目の接触があった場合(ステップS8のYes)、距離情報算出部151は、接触があった位置P1の座標を位置検知部から取得し、位置P0および位置P1の座標から、これら2点間の距離を算出する。(ステップS9) If there is a second touch (Yes in step S8), the distance information calculation unit 151 acquires the coordinates of the position P1 where the touch occurs from the position detection unit, and based on the coordinates of the position P0 and the position P1, Calculate the distance between points. (Step S9)
次に、リフォーカス係数設定部149が、算出された距離から被写界深度のパラメータを再設定する。(ステップS10) Next, the refocusing factor setting unit 149 resets the parameter of the depth of field from the calculated distance. (Step S10)
ステップ10の後、表示装置2は、制御をステップ4に戻して、処理を継続する。
以上、2点をタッチする場合の処理について説明した。
After step 10, the display device 2 returns control to step 4 to continue the process.
The process in the case of touching two points has been described above.
(1点目の接触が無い場合の処理)
ステップS3において、1点目の接触が無い場合(ステップS3のNo)、次に、タッチパネル150の位置検知部は、1点目の接触が無いまま一定時間が経過したか否かを判断する。(ステップS11)
(Process when there is no first point of contact)
In step S3, when there is no first contact (No in step S3), next, the position detection unit of the touch panel 150 determines whether or not a predetermined time has passed without the first contact. (Step S11)
まだ、一定時間が経過していない場合(ステップS11のNo)、表示装置2は、制御をステップS3に戻す。 If the predetermined time has not passed yet (No in step S11), the display device 2 returns the control to step S3.
一定時間が経過した場合(ステップS11のYes)、次に、リフォーカス係数設定部149が、被写界深度のパラメータを初期値に戻して再設定する。(ステップS12) If the predetermined time has elapsed (Yes in step S11), the refocusing coefficient setting unit 149 resets the parameter of the depth of field to the initial value and resets it. (Step S12)
ステップS12の後、表示装置2は、制御をステップS3に戻す。
以上、1点目の接触が無い場合の処理について説明した。
After step S12, the display device 2 returns the control to step S3.
The process in the case where there is no first contact has been described above.
(1点目の接触はあったが、2点目の接触が無い場合の処理)
ステップS8において、2点目の接触が無い場合(ステップS8のNo)、次に、タッチパネル150の位置検知部は、1点目の接触が保持されているか否かを判断する。(ステップS13)
(Process when there was a first point of contact but there was no second point of contact)
In step S8, when there is no second contact (No in step S8), next, the position detection unit of the touch panel 150 determines whether or not the first contact is held. (Step S13)
1点目の接触が保持されている場合(ステップS13のYes)、表示装置2は、制御をステップ4に戻し、処理を継続する。 If the first contact is held (Yes in step S13), the display device 2 returns the control to step 4 and continues the process.
1点目の接触が保持されていない場合(ステップS13のNo)、表示装置2は、制御をステップ3に戻し、処理を継続する。 When the first contact is not held (No in step S13), the display device 2 returns the control to step 3 and continues the process.
以上、1点目の接触はあったが、2点目の接触が無い場合の処理について説明した。 As described above, the process in the case where the first point of contact has been made but the second point of contact has not been described.
<変形例3(距離の表示)>
上記の説明では、1点目のタッチを行った際に、サークルが表示されるとしたが、サークルを描画する際、同時に、タッチした被写体までの距離を表示させる構成でもよい。
<Modification 3 (Display of Distance)>
In the above description, the circle is displayed when the first touch is performed. However, when drawing the circle, the distance to the touched subject may be displayed at the same time.
図9は、ユーザが被写体SUB1をタッチした際、サークルCIR0が描画されると共に、撮像装置1から被写体SUB1までの距離が文字列STRによりタッチ位置P0の近傍に表示されている例を示す図である。 FIG. 9 is a diagram showing an example in which the circle CIR0 is drawn when the user touches the subject SUB1, and the distance from the imaging device 1 to the subject SUB1 is displayed near the touch position P0 by the character string STR. is there.
<変形例4(タッチした2点を直径とするサークル)>
上記の説明では、タッチした1点目を中心とし、タッチした2点目と1点目との距離を半径とするサークルを描いたが、タッチした2点の距離を直径とするサークルを描いてもよい。この構成では、タッチした2点を結ぶ線分の中点の位置が、合焦させる位置として指定される。なお、2点のタッチは、同時であってもよいし、1点ずつ順次タッチされてもよい。
<Modification 4 (circle with diameter of two points touched)
In the above description, a circle is drawn with the first point touched as the center and the distance between the second point touched and the first point as the radius, but a circle with the distance between the two points touched as the diameter is drawn It is also good. In this configuration, the position of the midpoint of the line segment connecting the two touched points is designated as the position to be focused. The two points of touch may be simultaneous or may be sequentially touched one by one.
図10は、ユーザが、画像IMG0の表示されたタッチパネル150上の2点P0およびP1をタッチし、タッチした2点を直径とするサークルが描かれている例を示す図である。この図に示すように、タッチした2点を直径とするサークルを描く場合、サークルの中心点の部分に指を置く必要がないので、合焦位置となる部分が指で隠れず、見やすくなるという利点がある。 FIG. 10 is a diagram showing an example in which a user touches two points P0 and P1 on the touch panel 150 on which the image IMG0 is displayed, and a circle whose diameter is the two points touched is drawn. As shown in this figure, when drawing a circle whose diameter is the two touched points, it is not necessary to place a finger at the center point of the circle, so it is easy to see the part that will be the in-focus position without hiding with fingers. There is an advantage.
<変形例5(図形による被写界深度の表現)>
上記の説明では、被写界深度の相対的な深さを表すために、サークルを描画したが、これに限らず、例えば線分の長さや、他の図形の大きさにより被写界深度の相対的な深さを表してもよい。
<Modification 5 (representation of depth of field by graphic)>
In the above description, the circle is drawn to indicate the relative depth of the depth of field. However, the present invention is not limited to this. For example, the depth of field may be determined according to the length of the line segment or the size of other figures. It may represent relative depth.
他の図形として、三角形、四角形、ハートマーク、カメラの絞り羽根を模したものなどが挙げられる。 Other figures include triangles, squares, heart marks, and those imitating the diaphragm blades of a camera.
<変形例6(サークルによる絞り値の指定)>
上記の説明では、サークルの大きさが、相対的な被写界深度の深さを表すとしたが、サークルの大きさは、被写界深度ではなく、カメラのレンズの絞り値を表現するものであってもよい。この場合、サークルが小さくなると絞りが絞られたとし被写界深度が深くなり、サークルが大きくなると絞りが開かれたとし被写界深度が浅くなる。
<Modification 6 (Aperture Value Designation by Circle)>
In the above description, the size of the circle represents the relative depth of field depth, but the size of the circle represents not the depth of field but the aperture value of the camera lens. It may be In this case, when the circle becomes smaller, the aperture is narrowed and the depth of field becomes deeper. When the circle becomes larger, the aperture is opened and the depth of field becomes shallower.
<変形例7(絞り値の表示)>
上記の変形例3では、1点目のタッチ位置近傍に距離を表示するとしたが、設定されている被写界深度に対応した絞り値を表示してもよい。
<Modification 7 (Display of Aperture Value)>
In the third modification, the distance is displayed near the first touch position, but an aperture value corresponding to the set depth of field may be displayed.
<変形例8(既定のサークルの大きさ)>
初期値の被写界深度に対応して表示されるサークルの大きさは、タッチパネル150の表示パネルの大きさや解像度により、適切な大きさが選択される構成でもよい。
<Modification 8 (Default Circle Size)>
An appropriate size may be selected according to the size and resolution of the display panel of the touch panel 150, as the size of the circle displayed corresponding to the initial depth of field.
例えば、表示装置2が、画面サイズが50インチのテレビジョン受像器である場合と、5インチのスマートフォンである場合とでは、表示される画像IMG0の大きさは大幅に異なる。しかし、両者を操作するユーザの手の大きさは同じなので、規定値として表示されるサークルの大きさは、ユーザが指でタッチしやすい距離になるように調整されると使いやすい。 For example, in the case where the display device 2 is a television receiver having a 50-inch screen size and the case where it is a 5-inch smartphone, the size of the displayed image IMG0 is significantly different. However, since the size of the user's hand operating both is the same, the size of the circle displayed as the specified value is easy to use if it is adjusted so that the user can easily touch with a finger.
9インチの表示パネルを持つ表示装置2であれば、例えば半径2センチメートルのサークルを描くことが考えられる。 In the case of a display device 2 having a 9-inch display panel, it is conceivable to draw a circle with a radius of 2 centimeters, for example.
もちろん、既定のサークルの大きさは、ユーザが設定できる構成でもよい。 Of course, the size of the predetermined circle may be set by the user.
<変形例9(既定のぼけ方)>
上記の説明では、最初、1点目にタッチした際の被写界深度は初期値として設定されたものが使用されリフォーカス画像が再構築されるとしたが、この初期値は、ユーザが設定により変更出来るものであってもよい。この構成によると、1点目にユーザがタッチした際の既定のぼけ方をユーザは好みのぼけ方に変更することが出来る。
<Modification 9 (default blur method)>
In the above description, the depth of field when the first touch point is initially set to the initial value is used to reconstruct the refocused image, but the initial value is set by the user. It may be changed by According to this configuration, the user can change the default blur pattern when the user touches the first point to a preferred blur pattern.
<変形例10(リセット領域)>
本技術のUIには、ユーザが任意の合焦位置および被写界深度によりリフォーカス画像を表示パネル上に表示させた後、ユーザが明示的に合焦位置および被写界深度を初期値にリセットするための指示を受け付けるリセット領域を設けてもよい。
<Modification 10 (Reset Area)>
In the UI of the present technology, after the user causes the display panel to display the refocused image according to an arbitrary focus position and depth of field, the user explicitly sets the focus position and depth of field as initial values. A reset area may be provided to receive an instruction to reset.
ユーザがリセット領域にタッチすることにより、簡単に合焦位置や被写界深度を初期値にリセットすることが出来る。 When the user touches the reset area, the in-focus position and the depth of field can be easily reset to the initial values.
<変形例11(手を離した後の被写界深度の保持)>
本技術のUIでは、ユーザが合焦位置および被写界深度を指定するためにタッチパネル150をタッチして操作を行った後、タッチパネル150から手を離しても、指定された被写界深度の画像を一定時間表示する構成でもよい。
この構成により、ユーザはタッチパネル150から指を離し、表示パネル上に遮蔽物が無い状態でリフォーカス画像を鑑賞することが出来る。
<Modification 11 (Retention of depth of field after releasing hand)>
In the UI of the present technology, after the user touches and operates the touch panel 150 to specify the in-focus position and the depth of field, the specified depth of field is obtained even if the user releases the touch panel 150. The image may be displayed for a predetermined time.
With this configuration, the user can release the finger from the touch panel 150 and can view the refocused image in a state where there is no shield on the display panel.
<変形例12(一定時間無操作によるリセット)>
本技術のUIでは、ユーザが一定時間タッチパネル150に触れなかった場合、リフォーカス画像の合焦位置と被写界深度を初期値にリセットする構成でもよい。
<Modification 12 (Reset due to no operation for a fixed time)>
In the UI of the present technology, when the user does not touch the touch panel 150 for a certain period of time, the in-focus position of the refocused image and the depth of field may be reset to initial values.
<変形例13(被写界深度の指定が既定値を超えた場合の全焦点画像)>
本技術のUIでは、ユーザが指定する被写界深度の深さが所定の値を超えた場合、表示装置2は、リフォーカス画像として、全焦点画像を生成する構成でもよい。
<Modification 13 (All-in-Focus Image When Specification of Depth of Field Exceeds Default Value)>
In the UI of the present technology, when the depth of field specified by the user exceeds a predetermined value, the display device 2 may be configured to generate an omnifocal image as a refocused image.
<変形例14(予めリフォーカス画像を生成する)>
上記の説明では、ユーザがタッチパネル150上をタッチする度に、リフォーカス画像の再構築を行ったが、この構成に限らず、多視点画像から、予めユーザが指定する可能性がある合焦位置および被写界深度に対応した画像を複数枚構築し、表示装置またはサーバに設けた記憶部に保存しておく構成でもよい。
<Modification 14 (generate a refocused image in advance)>
In the above description, the refocused image is reconstructed each time the user touches the touch panel 150. However, the present invention is not limited to this configuration, and the in-focus position may be specified by the user in advance from multi-viewpoint images. A plurality of images corresponding to the depth of field may be constructed and stored in a storage unit provided in the display device or the server.
この構成では、ユーザがタッチした後にリフォーカス画像を再構築する時間が省けるので、高速にリフォーカス画像を表示することが出来る。 In this configuration, it is possible to display the refocused image at high speed because time for rebuilding the refocused image after the user touches can be omitted.
<変形例15(典型的なカメラによる画像の準備)>
変形例14では、多視点画像から、予めユーザが指定する可能性がある合焦位置および被写界深度に対応した画像を複数枚構築する構成としたが、これに限らず、通常のカメラを用いて、ユーザが指定する可能性がある合焦位置および被写界深度に対応した画像を複数枚撮像し、表示装置またはサーバに設けた記憶部に保存しておく構成でもよい。
<Modification 15 (Preparation of Image by Typical Camera)>
Although the modification 14 is configured to construct a plurality of images corresponding to the in-focus position and the depth of field that may be designated by the user in advance from the multi-viewpoint image, the present invention is not limited to this. A configuration may be used in which a plurality of images corresponding to the in-focus position and the depth of field that may be designated by the user are captured using a storage unit provided in the display device or the server.
この構成では、撮像装置1のようなライト・フィールド・カメラを用いなくとも、ユーザは表示装置において、リフォーカス画像を鑑賞することが出来る。 In this configuration, the user can view the refocused image on the display device without using a light field camera such as the imaging device 1.
<変形例16(タッチによらない位置の指定)>
上記の説明では、ユーザがタッチパネル150にタッチすることにより、合焦位置および被写界深度の指定を行ったが、これに限らず、合焦位置および被写界深度の指定は、非接触式の位置検出装置により行われてもよいし、マウスを用いて行われてもよい。
<Modified Example 16 (Specification of Position Not Due to Touch)>
In the above description, the user has specified the in-focus position and the depth of field by touching the touch panel 150, but the invention is not limited thereto. The specification of the in-focus position and the depth of field is a noncontact method. It may be performed by the position detection apparatus of the above, or may be performed using a mouse.
<変形例17(サークル上をタッチしない被写界深度の指定)>
上記の説明では、被写界深度を指定するために、ユーザがタッチパネル150上で、1点目のタッチにより表示されたサークルの円周上をタッチし、タッチしたまま指をスライドさせることにより被写界深度の変更を行った。しかし、この構成に限らず、ユーザがサークルの円周上をタッチしなくても、タッチパネル150上でいずれかタッチした位置を2点目のタッチ位置として受け付けてもよい。
<Modification 17 (Specification of depth of field not touching the circle)>
In the above description, in order to specify the depth of field, the user touches the circumference of the circle displayed by the first touch on the touch panel 150, and slides the finger while touching the subject. I changed the depth of field. However, the present invention is not limited to this configuration, and even if the user does not touch the circumference of the circle, the touch position on the touch panel 150 may be accepted as the second touch position.
この場合でも、2点目としてタッチした位置から、ユーザが指をスライドさせると、表示されているサークルの大きさが1点目と2点目のタッチ位置の距離に応じて、拡大縮小する。 Even in this case, when the user slides the finger from the position touched as the second point, the size of the displayed circle is scaled according to the distance between the first and second touch positions.
[補足事項]
その他、本技術は、上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
[Supplementary matter]
In addition, the present technology is not limited to only the above-described embodiment, and it goes without saying that various modifications can be made without departing from the scope of the present technology.
1 …撮像装置
2〜2C…表示装置
10…開口絞り
11…撮像レンズ
12…マイクロレンズアレイ
13…撮像素子
14…画像処理部
15…撮像素子駆動部
16…制御部
141…欠陥補正部
142…クランプ処理部
143…距離情報抽出部
144…並べ替え処理部
145…ノイズ低減部
146…輪郭強調部
147…ホワイトバランス調整部
148…ガンマ補正部148
149…リフォーカス係数設定部
150…タッチパネル
151…距離情報算出部
Reference Signs List 1 imaging device 2 to 2C display device 10 aperture stop 11 imaging lens 12 micro lens array 13 imaging device 14 image processing unit 15 imaging device driving unit 16 control unit 141 defect correction unit 142 clamp Processing unit 143 ... Distance information extraction unit 144 ... Rearrangement processing unit 145 ... Noise reduction unit 146 ... Contour emphasis unit 147 ... White balance adjustment unit 148 ... Gamma correction unit 148
149 Refocusing factor setting unit 150 Touch panel 151 Distance information calculation unit
Claims (13)
前記図形は、ユーザがタッチした位置からドラッグされた距離に応じて変形する請求項1ないし3のいずれか1項に記載の画像処理装置。 The display device has a touch panel,
The image processing apparatus according to any one of claims 1 to 3, wherein the graphic is deformed according to a distance dragged from a position touched by the user.
撮像データに基づき表示装置に表示する第1の表示画像を生成し、前記表示装置に表示された前記第1の表示画像における任意の被写体を指定することによって合焦位置を取得するとともに、前記指定された被写体の表示上の位置に関連付けて表示された図形を変更するユーザの入力に基づいて、前記第1の表示画像から被写界深度を増減変更した第2の表示画像を生成する画像生成部とを具備する画像処理装置。 An imaging device for acquiring imaging data of a subject;
A first display image to be displayed on a display device is generated based on imaging data, and an in-focus position is obtained by specifying an arbitrary subject in the first display image displayed on the display device, and the designation Generation of a second display image in which the depth of field is increased or decreased from the first display image based on the user's input for changing the displayed graphic in association with the displayed position of the subject An image processing apparatus comprising a unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017212526A JP6515978B2 (en) | 2017-11-02 | 2017-11-02 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017212526A JP6515978B2 (en) | 2017-11-02 | 2017-11-02 | Image processing apparatus and image processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013104384A Division JP6244655B2 (en) | 2013-05-16 | 2013-05-16 | Image processing apparatus and image processing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019014450A Division JP6711428B2 (en) | 2019-01-30 | 2019-01-30 | Image processing apparatus, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018064280A JP2018064280A (en) | 2018-04-19 |
JP6515978B2 true JP6515978B2 (en) | 2019-05-22 |
Family
ID=61966962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017212526A Active JP6515978B2 (en) | 2017-11-02 | 2017-11-02 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6515978B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7327964B2 (en) * | 2019-03-20 | 2023-08-16 | キヤノン株式会社 | Control device, imaging system, program, and storage medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006253998A (en) * | 2005-03-10 | 2006-09-21 | Casio Comput Co Ltd | Imaging apparatus and method |
JP2010093422A (en) * | 2008-10-06 | 2010-04-22 | Canon Inc | Imaging apparatus |
JP5178553B2 (en) * | 2009-01-27 | 2013-04-10 | オリンパス株式会社 | Imaging device |
JP2012010162A (en) * | 2010-06-25 | 2012-01-12 | Kyocera Corp | Camera device |
JP5657343B2 (en) * | 2010-10-28 | 2015-01-21 | 株式会社ザクティ | Electronics |
JP2013088579A (en) * | 2011-10-17 | 2013-05-13 | Olympus Imaging Corp | Imaging apparatus |
-
2017
- 2017-11-02 JP JP2017212526A patent/JP6515978B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018064280A (en) | 2018-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10924658B2 (en) | Information processing apparatus, electronic apparatus, server, information processing program, and information processing method | |
JP7003238B2 (en) | Image processing methods, devices, and devices | |
JP6620394B2 (en) | Control device, control method and program | |
JP5178553B2 (en) | Imaging device | |
JP6548367B2 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
KR20170135855A (en) | Automated generation of panning shots | |
JP2015035658A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
KR20140004592A (en) | Image blur based on 3d depth information | |
JP2010093422A (en) | Imaging apparatus | |
JP2018528631A (en) | Stereo autofocus | |
CN105530421B (en) | A kind of focusing method based on dual camera, device and terminal | |
JP2016039613A (en) | Image processing system, control method thereof, program, and storage medium | |
JP2016001853A (en) | Image processing system, imaging device, control method, and program | |
JP2017060010A (en) | Imaging device, method of controlling imaging device, and program | |
JP6515978B2 (en) | Image processing apparatus and image processing method | |
JP6711428B2 (en) | Image processing apparatus, image processing method and program | |
JP6483661B2 (en) | Imaging control apparatus, imaging control method, and program | |
KR101737260B1 (en) | Camera system for extracting depth from images of different depth of field and opertation method thereof | |
US11375123B2 (en) | Image processing apparatus, image capturing apparatus, control method for image processing apparatus, and program storage medium with coordinated display of image and display of distribution information of evaluation value | |
US11924548B2 (en) | Apparatus and method executed by apparatus | |
CN113014791B (en) | Image generation method and device | |
JP2018006803A (en) | Imaging apparatus, control method for imaging apparatus, and program | |
JP2018005337A (en) | Image processing device, imaging device, image processing method, and program | |
JP2013251801A (en) | Imaging apparatus and virtual subject distance decision method | |
JP2016036093A (en) | Imaging apparatus, control method and control program of the same, and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180921 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190130 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190401 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6515978 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |