WO2017216933A1 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
WO2017216933A1
WO2017216933A1 PCT/JP2016/067989 JP2016067989W WO2017216933A1 WO 2017216933 A1 WO2017216933 A1 WO 2017216933A1 JP 2016067989 W JP2016067989 W JP 2016067989W WO 2017216933 A1 WO2017216933 A1 WO 2017216933A1
Authority
WO
WIPO (PCT)
Prior art keywords
saliency
image
image processing
region
baffle
Prior art date
Application number
PCT/JP2016/067989
Other languages
English (en)
French (fr)
Inventor
尚之 宮下
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2016/067989 priority Critical patent/WO2017216933A1/ja
Publication of WO2017216933A1 publication Critical patent/WO2017216933A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and an image processing program.
  • Japanese Patent Application Laid-Open No. 2004-228561 performs image processing that enables good image arrangement even in an image in which an unnecessary object is captured by performing trimming so that an unnecessary area that does not look good when displayed does not exist in the image arrangement area.
  • An apparatus is disclosed.
  • the present invention has been made in view of the above-described circumstances, and an image processing apparatus and an image processing capable of generating an image capable of better highlighting a photographed subject while sufficiently leaving a photographer's intention.
  • a method and an image processing program are provided.
  • a saliency calculating unit that calculates a saliency of a pixel block included in an input image, a peripheral region setting unit that sets a peripheral region in the input image, and the saliency in the peripheral region
  • a baffle region determination unit that determines a pixel block having a degree greater than a first threshold as a baffle region, and a saliency reduction processing unit that performs processing to reduce the saliency on the peripheral region including the baffle region; Is an image processing apparatus.
  • the saliency calculation unit calculates the saliency of each pixel block constituting the input image, and the peripheral region setting unit sets the peripheral region in the input image.
  • the block area determination unit determines a pixel block having a saliency greater than the first threshold in the peripheral area as the block area. Then, image processing is performed by the saliency reduction processing unit so as to reduce the saliency of the peripheral area including the baffle area.
  • the disturbing area means a visually noticeable area in the peripheral area of the image.
  • the baffle area is not in the subject at the center of the lens or at the focus position and was photographed with the intention of the photographer, but unexpectedly reflected in the image. Therefore, by reducing the saliency of the baffle area as described above, the subject that the photographer originally wanted to take can be more clearly highlighted, and a more suitable image can be obtained.
  • the saliency reduction processing unit determines the intensity of the process so that a change amount of the saliency in the baffle region before and after performing the process is larger than a second threshold. It may be configured to. According to this configuration, it is possible to perform the reduction process so that a constant change occurs in the baffle region having any saliency.
  • the saliency reduction processing unit may determine the intensity of the process so that the saliency of the baffle region is equal to or less than a third threshold. According to this configuration, it is possible to perform the reduction process so that the baffle region having any saliency has a certain saliency.
  • the saliency reduction processing unit may perform the processing so as to have symmetry with respect to the center or the focus position of the input image. According to this configuration, a natural reduction process simulating lens optical characteristics can be performed.
  • the saliency reduction processing unit may be configured to increase the intensity of the processing as the distance from the reference increases. According to this configuration, a natural reduction process simulating lens optical characteristics can be performed.
  • the saliency reduction processing unit may be configured to trim the disturbing area so as to maintain an aspect ratio of the input image. According to this configuration, it is possible to better highlight the subject that the photographer originally wanted to take. Further, since the aspect ratio is maintained, a more suitable image can be obtained without deviating from the intention of the angle of view originally intended by the photographer.
  • the step of calculating the saliency of the pixel block included in the input image, the step of setting the peripheral region in the input image, and the saliency in the peripheral region is a first threshold value.
  • An image processing method comprising: determining a region including a larger pixel block as a baffle region; and performing a process of reducing the saliency on the peripheral region including the baffle region.
  • a process for calculating the saliency of a pixel block included in an input image a process for setting a peripheral area in the input image, and the saliency is a first threshold value in the peripheral area.
  • An image processing program for causing a computer to execute a process of determining an area including a larger pixel block as a baffle area and a process of reducing the saliency to the peripheral area including the baffle area .
  • FIG. 1 is a diagram illustrating a configuration example of an image processing system according to a first embodiment of the present invention. It is a figure which shows an example of the image input into the calculating part with which the image processing system shown by FIG. 1 is equipped. It is a figure which shows an example of the map of the saliency calculated from the image shown by FIG. It is a figure explaining the peripheral region in an input image. It is a figure which shows an example of the result of having threshold-processed the map of saliency shown in FIG. It is a figure explaining the peripheral region of the image shown by FIG. 5A. It is a figure explaining the baffle area
  • FIG. 2 It is a figure which shows an example of the result of having image-processed the image shown by FIG. 2 in the image processing system which concerns on the 3rd Embodiment of this invention. It is a figure which shows an example of the result of having image-processed the image shown by FIG. 2 in the image processing system which concerns on the 4th Embodiment of this invention. It is a figure which shows an example of the image input into the calculating part with which the image processing system which concerns on the 5th Embodiment of this invention is equipped. It is a figure explaining the baffle area
  • FIG. 1 is a diagram showing an image processing system 1 according to the first embodiment of the present invention.
  • the image processing system 1 includes an input unit 10, a calculation unit (image processing device) 20, a display unit 30, and a storage unit 40.
  • the input unit 10 is connected to the calculation unit 20.
  • the computing unit 20 is connected to the display unit 30 and the storage unit 40.
  • the input unit 10 includes an optical lens, an image sensor, an AD (Analog-to-Digital) converter, and the like, converts optical information formed on the image sensor by the optical lens into an electrical signal, and further converts the AD converter. For example, an image is generated by converting the signal into a digital signal, and the image is input to the calculation unit 20.
  • AD Analog-to-Digital
  • the calculation unit 20 is configured to perform image processing for reducing an image generated by the input unit 10, that is, a disturbing area included in the input image.
  • the display unit 30 is configured to display an input image, an image after the image processing is performed by the calculation unit 20, and the like.
  • the storage unit 40 is configured to store the processed image output from the calculation unit 20 in an external medium such as a memory card.
  • the computing unit 20 includes a saliency calculating unit 201, a peripheral region setting unit 202, a baffle region determining unit 203, and a saliency reducing processing unit 204.
  • the arithmetic unit 20 includes a processor (not shown) and a memory (not shown) such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and the above-described processes are executed by the processor.
  • the saliency calculating unit 201 is configured to divide the input image into a plurality of pixel blocks, calculate the saliency for each of the divided pixel blocks, and generate a saliency map for the entire image.
  • the saliency is a degree representing whether or not it is visually noticeable, which is digitized using human visual characteristics, and indicates that the higher the value, the more visually noticeable.
  • a saliency map is obtained by calculating the saliency in each pixel block and visualizing the entire image as a map.
  • a pixel block is an area composed of one or more pixels, and the minimum unit of the pixel block is one pixel.
  • FIG. 3 shows a saliency map generated by the saliency calculating unit 201 from the input image shown in FIG.
  • the saliency can be calculated using a known calculation method.
  • Non-Patent Document 1 discloses the basic principle of a saliency calculation method.
  • the peripheral area setting unit 202 is configured to set the peripheral area for the input image from the input unit 10 based on the peripheral area ratio oR.
  • the peripheral region is a predetermined region (hatched portion in FIG. 4) from the outer peripheral portion to the central portion of the input image, and the width oW and height oH of the peripheral region are respectively the peripheral region. It can obtain
  • oW iW ⁇ oR (1)
  • oH iH ⁇ oR (2)
  • iW is the width of the input image
  • iH is the height of the input image.
  • the peripheral area ratio oR is a value set in advance in a memory (not shown), may be a fixed value, or may be set by a user as a parameter. Note that the peripheral region ratio oR may be a value different between the height direction and the width direction.
  • the baffle region determination unit 203 is configured to determine the baffle region based on the saliency map generated by the saliency calculation unit 201 and the peripheral region set by the peripheral region setting unit 202. Specifically, after the saliency map shown in FIG. 3 is binarized as shown in FIG. 5A, it is collated with the surrounding area as shown in FIG. 5B. As a result, as shown in FIG. 5C, a pixel block included in the peripheral region and having a value larger than the binarization threshold (first threshold) is determined as a disturbing region.
  • first threshold binarization threshold
  • FIG. 5A is binarized with a threshold value of 0.5 when the minimum value of the saliency map shown in FIG.
  • a predetermined value may be used, or it may be adaptively derived using a general discriminant analysis method or the like, and is not limited.
  • the saliency reduction processing unit 204 is configured to perform image processing on the peripheral area so that the saliency of the baffle area determined by the baffle area determination unit 203 is reduced.
  • the saliency reduction processing unit 204 performs image processing simulating the peripheral light reduction of the camera lens. Specifically, as shown in FIG. 7A, image processing simulating lens optical characteristics for reducing the saliency is performed on the peripheral region including the baffle region.
  • this process is an image process imitating the peripheral light reduction of the camera lens, the image process is performed so as to have a circularity with reference to the center of the input image or the focus position.
  • the saliency reduction processing unit 204 determines the intensity of image processing based on the amount of change in saliency of the baffle area before and after performing image processing. More specifically, the intensity of the image processing is determined so that the amount of change is greater than a predetermined threshold (second threshold). For example, as shown in FIG. 6, when the saliency of a certain baffle region is sV0 (the left bar in FIG. 6), it is assumed that there are two candidates of image processing intensity, candidate Pa and candidate Pb. When image processing is performed on each of the candidates Pa and Pb, the saliency sV of the baffle region after image processing is proc (sV0, Pa) (the center bar in FIG.
  • proc (sV, P) represents a function for calculating the saliency when the image processing is performed on the baffle region having the saliency sV with the intensity P.
  • the saliency reduction processing unit 204 determines the candidate Pb as the final intensity. By doing so, it is possible to perform the reduction process so that the saliency is reduced by a constant change amount even for the baffle region having any saliency.
  • the threshold value diff_thr is a value set in advance in a memory (not shown), and can be adjusted by the user as a parameter. By adjusting the threshold value diff_thr, for example, as shown in FIG. 7A, processing is performed so that the saliency is greatly reduced, or as shown in FIG. 7B, processing is performed while reducing the saliency slightly. Can be.
  • the image processing system 1 is, for example, a digital still camera that captures still images and records / displays image data, a smartphone having a capturing function, or the like, but is not limited thereto.
  • the arithmetic unit 20 that performs image processing is implemented as a circuit on a silicon chip, but is not limited thereto, and is implemented by causing a computer to execute an image processing program that is software. Also good.
  • an image captured by the input unit 10 is input to the calculation unit 20 (step S1 in FIG. 8).
  • the saliency calculating unit 201 calculates the saliency for each pixel block of the input image, and generates a saliency map of the entire image (step S2 in FIG. 8).
  • the peripheral area setting unit 202 calculates the width oW and height oH of the peripheral area by multiplying the width iW and height iH of the input image by a predetermined peripheral area ratio oR, respectively, and sets the peripheral area. (Step S3 in FIG. 8).
  • the generated saliency map is binarized, and a baffle area is determined based on the binarized saliency map and the set peripheral area (step in FIG. 8). S4).
  • the saliency reduction processing unit 204 performs image processing on the peripheral region including the baffle region so as to reduce the saliency of the baffle region, and performs image processing on the display unit 30 and the storage unit 40.
  • the processed image is output (step S6 in FIG. 8).
  • the obstacle area which is a prominent area in the peripheral area of the input image, is determined, and image processing is performed so as to reduce the saliency of the determined obstacle area, so that the subject can be more clearly highlighted. Therefore, a more suitable image close to the photographer's intention can be obtained.
  • the saliency reduction processing unit 204 determines the intensity of image processing based on the absolute value of the saliency of the baffle region before and after performing image processing. More specifically, the intensity of image processing is determined so that the absolute value is equal to or less than a predetermined threshold (third threshold). For example, as shown in FIG. 9, when the saliency of a certain baffle region is sV0 (left bar in FIG. 9), it is assumed that there are two candidates of image processing intensity, candidate Pa and candidate Pb. When image processing is performed on each of the candidates Pa and Pb, the saliency of the baffle area after image processing is sVa (the central bar in FIG. 9) and sVb (the right bar in FIG. 9), respectively. sVa and sVb are expressed by Equation (5) and Equation (6).
  • proc (sV, P) represents a function for calculating the saliency when the image processing is performed on the baffle region having the saliency sV with the intensity P.
  • the saliency reduction processing unit 204 determines the candidate Pb as the final intensity. In this way, it is possible to perform a reduction process so that the saliency is constant for the baffle region having any saliency.
  • the threshold value sVthr is a value set in advance in a memory (not shown) and can be adjusted by the user as a parameter.
  • adjusting the threshold value sVthr for example, as shown in FIG. 7A, processing is performed so that the saliency is greatly reduced, or as shown in FIG. 7B, processing is performed while reducing the saliency slightly. Can be.
  • the description has been given by limiting the number of candidates to two.
  • the present invention is not limited to this, and the strength may be determined from three or more candidates.
  • the intensity Pc may be calculated backward from the saliency sV0 and the threshold value sVthr of a certain baffle area, and this may be determined as the final intensity.
  • Pc inv_proc (sV0, sVthr) (7)
  • the function inv_proc (sV, th) is a function for inversely calculating the image processing intensity from the values of the saliency sV and the threshold th.
  • the saliency reduction processing unit 204 performs image processing so as to imitate a tilt shift lens. Specifically, as shown in FIG. 10, image processing simulating lens optical characteristics for reducing the saliency is performed on the peripheral region including the baffle region.
  • blur can be given to the peripheral area including the baffle area, so that the saliency of the baffle area can be reduced and the subject can be more clearly highlighted. As a result, a more suitable image close to the photographer's intention can be obtained.
  • this process is an image process simulating a tilt shift lens
  • the image process is performed so as to have symmetry with respect to the center or focus position of the input image.
  • image processing is performed so as to have left-right symmetry with respect to the focus position.
  • the saliency reduction processing unit 204 performs image processing so as to imitate a lens having a strong pincushion type distortion aberration. Specifically, as shown in FIG. 11, image processing simulating lens optical characteristics for reducing the saliency is performed on the peripheral region including the baffle region.
  • distortion can be imparted to the peripheral region including the baffle region so that the processed image does not include the baffle region, so that a more suitable image close to the photographer's intention is obtained. be able to.
  • this processing is image processing simulating a pincushion-type lens with strong distortion, and therefore image processing is performed so as to have symmetry with respect to the center or focus position of the input image.
  • the fifth embodiment of the present invention will be described below.
  • the configuration of the image processing system 1 according to the fifth embodiment of the present invention is the same as the configuration of the image processing system 1 according to the first embodiment shown in FIG.
  • the saliency reduction processing unit 204 trims the disturbing area so as to maintain the aspect ratio of the input image. More specifically, when the image shown in FIG. 12A is input and a disturbing area is determined as shown in FIG. 12B, the disturbing area is omitted, and the aspect ratio of the processed image is the aspect ratio of the input image. Trimming as shown by the dotted line in FIG. 12B is performed so as to be equal to the ratio. As a result, the image shown in FIG. 12C is generated.
  • a digital still camera 2 shown in FIG. 13A includes the image processing system 1 according to the first to fifth embodiments described above, and an operation unit including a shutter button 21, a touch panel display 22, a power switch (not shown), and the like. ing.
  • a mode icon 221 for setting a shooting mode, a shutter icon 222 functioning as a shutter, and the like are appropriately displayed on the touch panel display 22.
  • the digital still camera 2 is configured to be able to set various parameters, for example, the peripheral area ratio oR, the type of image processing, the intensity of image processing, the threshold value used in the calculation, and the like by operating the touch panel display 22.
  • the type of image processing it is possible to select any one of image processing simulating peripheral light reduction of a camera lens, image processing simulating a tilt shift lens, and image processing simulating a pincushion type lens having strong distortion.
  • the intensity of image processing either intensity setting based on the amount of change in the saliency of the baffle area or intensity setting based on the absolute value of the saliency of the baffle area can be selected.
  • threshold values diff_thr and sVthr when setting the intensity of image processing can be arbitrarily set. As a result, it is possible to perform image processing according to usage scenes and user preferences.
  • the digital still camera 2 is activated by the user. Subsequently, when the mode icon 221 on the touch panel display 22 is operated by the user, the shooting mode is set to “Good Mode Mode”. Next, the shutter button 21 or the shutter icon 222 is operated by the user, and an image is captured as shown in FIG. 13C. The captured image is subjected to image processing by the arithmetic unit 20, and the processed image is displayed on the touch panel display 22 as shown in FIG. 13D. Thus, a series of processes in the shooting mode “Good Mode Mode” is completed.
  • the image processing intensity is determined based on the change amount or the absolute value of the saliency of the baffle region, but the image processing may be performed with a predetermined constant intensity. Good.
  • the intensity of image processing may be increased as the distance from the center of the input image or the focus position increases.
  • the type of image processing may be switched in view of the distribution state of the disturbing area. For example, when the baffle area is distributed at either the left or right and top and bottom positions in the input image, image processing that simulates a tilt shift lens is performed, and the baffle area is distributed at both the top and bottom and left and right positions. May perform image processing simulating the peripheral dimming of the camera lens and perform image processing over the entire periphery of the image peripheral portion.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

撮影者の意図を十分に残しつつ、撮影された被写体をより良く際立たせることのできる画像を生成する。入力画像に含まれる画素ブロックの顕著度を算出する顕著度算出部(201)と、入力画像における周辺領域を設定する周辺領域設定部(202)と、周辺領域において、顕著度が第1の閾値より大きい画素ブロックを邪魔領域として判定する邪魔領域判定部(203)と、邪魔領域を含む周辺領域に対し、顕著度を低減する処理を施す顕著度低減処理部(204)とを備える画像処理装置を提供する。

Description

画像処理装置、画像処理方法及び画像処理プログラム
 本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
 従来、画像のオートトリミングでは、三分割線等の構図線の交点に被写体を配置してトリミングすることで、構図としての見栄えが良くなることが知られている。
 しかしながら、このようなオートトリミング手法では、結果として、画像周辺の顕著な領域である邪魔領域が残ってしまい、人物顔やフォーカス位置等の被写体を際立たせる効果が十分に発揮されないおそれがある。
 特許文献1は、表示することで見栄えが悪くなる不要領域が画像配置領域に存在しないようにトリミングすることにより、不要なオブジェクトが撮影された画像であっても良好な画像配置が可能な画像処理装置を開示している。
特開2014-16818号公報
L. Itti, C. Koch, & E. Niebur (1998), "A Model of Saliency-BasedVisual Attention for Rapid Scene Analysis." IEEETransactions on Pattern Analysis and Machine Intelligence, 20(11), 1254-1259.
 しかしながら、特許文献1に開示された画像処理装置の場合、画像処理後の画像が撮影された画像に対して比較的小さくなるようにトリミングされてしまい、撮影者が元々狙っていた画角の意図からは大きく乖離してしまうおそれがある。
 本発明は、上述した事情に鑑みてなされたものであって、撮影者の意図を十分に残しつつ、撮影された被写体をより良く際立たせることのできる画像を生成可能な画像処理装置、画像処理方法及び画像処理プログラムを提供する。
 上記目的を達成するために、本発明は以下の手段を提供する。
 本発明の第1の態様は、入力画像に含まれる画素ブロックの顕著度を算出する顕著度算出部と、前記入力画像における周辺領域を設定する周辺領域設定部と、前記周辺領域において、前記顕著度が第1の閾値よりも大きい画素ブロックを邪魔領域として判定する邪魔領域判定部と、前記邪魔領域を含む前記周辺領域に対し、前記顕著度を低減する処理を施す顕著度低減処理部と、を備える画像処理装置である。
 上記第1の態様に係る画像処理装置によれば、顕著度算出部によって入力画像を構成する各画素ブロックの顕著度が算出されるとともに、周辺領域設定部によって入力画像における周辺領域が設定される。次に、邪魔領域判定部によって、周辺領域において顕著度が第1の閾値よりも大きい画素ブロックが邪魔領域として判定される。そして、顕著度低減処理部によって、邪魔領域を含む周辺領域に対して顕著度を低減するように画像処理が施される。
 ここで、邪魔領域とは、画像周辺領域における視覚的に顕著な目立つ領域のことをいう。邪魔領域は、レンズ中心又はフォーカス位置にある、撮影者が意図を持って撮影を行った被写体ではなく、図らずも画像内に写り込んでしまった可能性が高い。そこで、上述のように邪魔領域の顕著度を低減させることにより、撮影者が本来撮りたかった被写体をより良く際立たせることができ、より好適な画像を得ることができる。
 上記態様に係る画像処理装置において、前記顕著度低減処理部が、前記処理を施す前後での前記邪魔領域における顕著度の変化量が第2の閾値より大きくなるように、前記処理の強度を決定する構成であってもよい。
 この構成によれば、どのような顕著度を有する邪魔領域に対しても一定の変化が生じるように低減処理を施すことができる。
 上記態様に係る画像処理装置において、前記顕著度低減処理部が、前記邪魔領域の顕著度が第3の閾値以下になるように、前記処理の強度を決定する構成であってもよい。
 この構成によれば、どのような顕著度を有する邪魔領域に対しても一定の顕著度となるように低減処理を施すことができる。
 上記態様に係る画像処理装置において、前記顕著度低減処理部が、前記入力画像の中心若しくはフォーカス位置を基準として対称性を有するように前記処理を施す構成であってもよい。
 この構成によれば、レンズ光学特性を模した自然な低減処理を行うことができる。
 上記態様に係る画像処理装置において、前記顕著度低減処理部が、前記基準からの距離が大きいほど前記処理の強度を高くする構成であってもよい。
 この構成によれば、レンズ光学特性を模した自然な低減処理を行うことができる。
 上記態様に係る画像処理装置において、前記顕著度低減処理部が、前記入力画像のアスペクト比を維持するように、前記邪魔領域をトリミングする構成であってもよい。
 この構成によれば、撮影者が本来撮りたかった被写体をより良く際立たせることができる。また、アスペクト比が維持されるため、撮影者が本来狙っていた画角の意図と乖離せずに、より好適な画像を得ることができる。
 本発明の第2の態様は、入力画像に含まれる画素ブロックの顕著度を算出する工程と、前記入力画像における周辺領域を設定する工程と、前記周辺領域において、前記顕著度が第1の閾値より大きい画素ブロックを含む領域を邪魔領域として判定する工程と、前記邪魔領域を含む前記周辺領域に対し、前記顕著度を低減する処理を施す工程と、を備える画像処理方法である。
 本発明の第3の態様は、入力画像に含まれる画素ブロックの顕著度を算出する処理と、前記入力画像における周辺領域を設定する処理と、前記周辺領域において、前記顕著度が第1の閾値よりも大きい画素ブロックを含む領域を邪魔領域として判定する処理と、前記邪魔領域を含む前記周辺領域に対し、前記顕著度を低減する処理を施す処理と、をコンピュータに実行させる画像処理プログラムである。
本発明によれば、撮影者の意図を十分に残しつつ、撮影された被写体をより良く際立たせることのできる画像を生成することができるという効果を奏する。
本発明の第1の実施形態に係る画像処理システムの構成例を示す図である。 図1に示される画像処理システムに備えられる演算部に入力される画像の一例を示す図である。 図2に示される画像から算出された顕著度のマップの一例を示す図である。 入力画像における周辺領域について説明する図である。 図3に示される顕著度のマップを閾値処理した結果の一例を示す図である。 図5Aに示される画像の周辺領域について説明する図である。 図5Bに示される画像における邪魔領域を説明する図である。 図1に示される画像処理システムに備えられる顕著度低減処理部で実行される画像処理の強度について説明する図である。 図1に示される画像処理システムにおいて図2に示される画像を画像処理した結果の一例を示す図である。 図1に示される画像処理システムにおいて図2に示される画像を画像処理した結果の他の一例を示す図である。 図1に示される演算部における処理を示すフローチャートである。 本発明の第2の実施形態に係る画像処理システムに備えられる顕著度低減処理部で実行される画像処理の強度について説明する図である。 本発明の第3の実施形態に係る画像処理システムにおいて図2に示される画像を画像処理した結果の一例を示す図である。 本発明の第4の実施形態に係る画像処理システムにおいて図2に示される画像を画像処理した結果の一例を示す図である。 本発明の第5の実施形態に係る画像処理システムに備えられる演算部に入力される画像の一例を示す図である。 図12Aに示される画像における邪魔領域について説明する図である。 本発明の第5の実施形態に係る画像処理システムにおいて図12Aに示される画像を画像処理した結果の一例を示す図である。 デジタルカメラにおける実施例を示す図であり、撮影モードの選択操作について説明する図である。 デジタルカメラにおける実施例を示す図であり、シャッター操作について説明する図である。 デジタルカメラにおける実施例を示す図であり、撮影された画像の一例を示す図である。 デジタルカメラにおける実施例を示す図であり、画像処理結果の一例を示す図である。
 以下に、本発明に係る画像処理システムの実施形態について、図面を参照して詳細に説明する。
(第1の実施形態)
 図1は、本発明の第1の実施形態に係る画像処理システム1を示す図である。
 画像処理システム1は、入力部10と、演算部(画像処理装置)20と、表示部30と、記憶部40とを備えている。入力部10は演算部20に接続されている。演算部20は、表示部30及び記憶部40に接続されている。
 入力部10は、光学レンズ、イメージセンサ、AD(Analog-to-Digital)変換器等で構成され、光学レンズによってイメージセンサ上に結像された光情報を電気信号に変換し、更にAD変換器等でデジタル信号に変換することにより、画像を生成し、演算部20に画像を入力するように構成されている。
 演算部20は、入力部10で生成された画像、すなわち、入力画像に含まれる邪魔領域を低減する画像処理を行うように構成されている。
 表示部30は、入力画像、演算部20で画像処理が行われた後の画像等を表示するように構成されている。
 記憶部40は、演算部20より出力される処理後の画像を、メモリカード等の外部メディアに保存するように構成されている。
 以下、演算部20について、図面を参照して詳しく説明する。
 図1に示されるように、演算部20は、顕著度算出部201と、周辺領域設定部202と、邪魔領域判定部203と、顕著度低減処理部204とを備えている。また、演算部20は、不図示のプロセッサと不図示のROM(Read Only Memory)、RAM(Random Access Memory)等のメモリとを備えており、プロセッサによって上述の各処理が実行される。
 顕著度算出部201は、入力画像を複数の画素ブロックに分割し、分割された各画素ブロックにおいて顕著度を算出し、画像全体における顕著度のマップを生成するように構成されている。
 顕著度とは、人間の視覚特性を利用して数値化された、視覚的に顕著かどうかを表す度合であり、その数値が高いほど視覚的に顕著であることを示している。そして、各画素ブロックにおいて顕著度を算出し、画像全体でマップとして可視化したものが顕著性マップである。なお、画素ブロックは、1画素以上から構成される領域であり、画素ブロックの最小単位は1画素である。
 図3には、顕著度算出部201によって、図2に示される入力画像から生成された顕著性マップが示されている。なお、顕著度は、公知の算出方法を用いて算出することができる。例えば、非特許文献1には、顕著度の算出方法の基本原理が開示されている。
 周辺領域設定部202は、入力部10からの入力画像に対し、周辺領域比oRに基づいて周辺領域の設定を行うように構成されている。図4に示されるように、周辺領域は、入力画像の外周部から中央部に向かう所定の領域(図4のハッチング部)であり、周辺領域の幅oW及び高さoHは、それぞれ、周辺領域比oRを用いて式(1)及び(2)から求めることができる。
oW=iW×oR     (1)
oH=iH×oR     (2)
 但し、iWは入力画像の幅であり、iHは入力画像の高さである。 図4に示される周辺領域は、周辺領域比oR=0.1と設定した場合の例である。なお、周辺領域比oRは、予め不図示のメモリに設定された値であり、固定値であってもよいし、パラメータとして、ユーザによって設定されてもよい。
 なお、周辺領域比oRは、高さ方向と幅方向とで異なる値を用いることとしてもよい。
 邪魔領域判定部203は、顕著度算出部201で生成された顕著性マップと、周辺領域設定部202で設定された周辺領域とに基づいて、邪魔領域を判定するように構成されている。具体的には、図3に示される顕著性マップが、図5Aに示されるように二値化された後で、図5Bに示されるように、周辺領域と照合される。その結果、図5Cに示されるように、周辺領域に含まれる、二値化の閾値(第1の閾値)よりも大きい値を有する画素ブロックを邪魔領域として判定する。
 なお、図5Aは、図3に示される顕著性マップの最小値をゼロ、最大値を1とした場合に、閾値を0.5として二値化したものである。二値化の閾値は、所定の値を用いても良いし、一般的な判別分析法等を用いて適応的に導出されても良く、限定されない。
 顕著度低減処理部204は、邪魔領域判定部203で判定された邪魔領域の顕著度が低減するように、周辺領域に画像処理を施すように構成されている。
 本実施形態では、顕著度低減処理部204が、カメラレンズの周辺減光を模した画像処理を行う。具体的には、図7Aに示されるように、邪魔領域を含む周辺領域に、顕著度を低減するレンズ光学特性を模した画像処理が施される。
 この処理は、カメラレンズの周辺減光を模した画像処理であるため、入力画像の中心若しくはフォーカス位置を基準として円周性を有するように画像処理がなされる。
 また、本実施形態では、顕著度低減処理部204が、画像処理を施す前後における邪魔領域の顕著度の変化量に基づいて画像処理の強度を決定する。より具体的には、この変化量が所定の閾値(第2の閾値)よりも大きくなるように、画像処理の強度が決定される。例えば、図6に示されるように、ある邪魔領域の顕著度がsV0であるとき(図6の左側のバー)、画像処理の強度の候補として、候補Paと候補Pbの2つがあったとする。候補PaとPbの夫々で画像処理を施した場合、画像処理後の邪魔領域の顕著度sVは、夫々、proc(sV0,Pa)(図6の中央のバー)、proc(sV0,Pb)(図6の右側のバー)となる。ここで、関数proc(sV,P)は、強度Pで顕著度sVを有する邪魔領域に画像処理を施した時の顕著度を算出する関数を表す。
 従って、候補PaとPbの夫々で画像処理を施した時の変化量diff_a,diff_bは、夫々、式(3)及び(4)となる。
diff_a=sV0-proc(sV0,Pa)     (3)
diff_b=sV0-proc(sV0,Pb)     (4)
 図6に示される例では、変化量diff_bが、閾値diff_thrよりも大きいため、顕著度低減処理部204は、候補Pbを最終的な強度として決定する。
 このようにすることにより、どのような顕著度を有する邪魔領域に対しても顕著度が一定の変化量で低減するように低減処理を施すことができる。
 なお、上述の説明では、簡単のために、候補が2つの場合に限定して説明したが、これに限定されず、3つ以上の候補から強度を決定してもよい。閾値diff_thrは、予め不図示のメモリに設定された値であり、パラメータとして、ユーザによって調整することができる。閾値diff_thrを調整することにより、例えば、図7Aに示されるように、顕著度が大きく低減するように処理したり、図7Bに示されるように、顕著度をやや残しつつ低減するように処理したりすることができる。
 上記実施形態において、画像処理システム1は、例えば、静止画像を撮影して画像データを記録・表示するデジタルスチルカメラ、撮影機能を有するスマートフォン等であるが、これに限定されない。
 また、本実施形態において、画像処理を行う演算部20は、シリコンチップ上の回路として実装されているが、これに限定されず、ソフトウェアである画像処理プログラムをコンピュータに実行させることにより実装されてもよい。
 以下、上記構成を備える演算部20において実行される処理について図1及び図8を参照しながら説明する。
 まず、図1に示されるように、入力部10で撮影された画像が演算部20に入力される(図8のステップS1)。次に、顕著度算出部201において、入力画像の画素ブロック毎に顕著度が算出され、画像全体の顕著性マップが生成される(図8のステップS2)。また、周辺領域設定部202において、入力画像の幅iW及び高さiHに、予め設定された周辺領域比oRを夫々乗じることにより周辺領域の幅oW及び高さoHが算出され、周辺領域が設定される(図8のステップS3)。次に、邪魔領域判定部203において、生成された顕著性マップが二値化され、二値化された顕著性マップ及び設定された周辺領域に基づいて邪魔領域が判定される(図8のステップS4)。続いて、顕著度低減処理部204において、邪魔領域を含む周辺領域に対し、邪魔領域の顕著度を低減するように画像処理が施され、表示部30及び記憶部40に対し、画像処理を施した画像が出力される(図8のステップS6)。
 このように、入力画像の周辺領域における顕著な領域である邪魔領域が判定され、判定された邪魔領域の顕著度を低減するように画像処理を施すことで、被写体をより良く際立たせることができるので、撮影者の意図に近いより好適な画像を得ることができる。
(第2の実施形態)
 以下、本発明の第2の実施形態について説明する。
 本発明の第2の実施形態に係る画像処理システム1の構成は、図1に示される第1の実施形態に係る画像処理システム1の構成と同様であるため、説明を省略する。
 本実施形態では、上述の第1の実施形態とは異なり、顕著度低減処理部204が、画像処理を施す前後における邪魔領域の顕著度の絶対値に基づいて画像処理の強度を決定する。より具体的には、この絶対値が所定の閾値(第3の閾値)以下になるように、画像処理の強度が決定される。例えば、図9に示されるように、ある邪魔領域の顕著度がsV0であるとき(図9の左側のバー)、画像処理の強度の候補として、候補Paと候補Pbの2つがあったとする。候補PaとPbの夫々で画像処理を施した場合、画像処理後の邪魔領域の顕著度は、夫々、sVa(図9の中央のバー)、sVb(図9の右側のバー)となる。sVa及びsVbは、式(5)及び式(6)で表される。
sVa=proc(sV0,Pa)     (5)
sVb=proc(sV0,Pb)     (6)
 ここで、関数proc(sV,P)は、強度Pで顕著度sVを有する邪魔領域に画像処理を施した時の顕著度を算出する関数を表す。
 図9に示される例では、絶対値である顕著度sVbが、閾値sVthr以下であるため、顕著度低減処理部204は、候補Pbを最終的な強度として決定する。
 このようにすることにより、どのような顕著度を有する邪魔領域に対しても顕著度が一定となるように低減処理を施すことができる。
 閾値sVthrは、予め不図示のメモリに設定された値であり、パラメータとして、ユーザによって調整することができる。閾値sVthrを調整することにより、例えば、図7Aに示されるように、顕著度が大きく低減するように処理したり、図7Bに示されるように、顕著度をやや残しつつ低減するように処理したりすることができる。
 なお、上述の説明では、簡単のために、候補が2つの場合に限定して説明したが、これに限定されず、3つ以上の候補から強度を決定してもよい。
 また、式(7)に示されるように、ある邪魔領域の顕著度sV0及び閾値sVthrから、強度Pcを逆算出し、これを最終的な強度として決定してもよい。
Pc=inv_proc(sV0,sVthr)     (7)
ここで、関数inv_proc(sV,th)は、顕著度sV及び閾値thの値から画像処理の強度を逆算出する関数である。
(第3の実施形態)
 以下、本発明の第3の実施形態について説明する。
 本発明の第3の実施形態に係る画像処理システム1の構成は、図1に示される第1の実施形態に係る画像処理システム1の構成と同様であるため、説明を省略する。
 本実施形態では、上述の第1の実施形態とは異なり、顕著度低減処理部204が、チルトシフトレンズを模してボケを付与するように画像処理を行う。具体的には、図10に示されるように、邪魔領域を含む周辺領域に、顕著度を低減するレンズ光学特性を模した画像処理が施される。
 本実施形態によれば、邪魔領域を含む周辺領域にボケを付与することができるので、邪魔領域の顕著度を低減させ、被写体をより良く際立たせることができる。結果として、撮影者の意図に近いより好適な画像を得ることができる。
 なお、この処理は、チルトシフトレンズを模した画像処理であるため、入力画像の中心若しくはフォーカス位置を基準として対称性を有するように画像処理がなされる。図10に示される例では、フォーカス位置を基準として左右方向に対称性を有するように画像処理が施されている。
(第4の実施形態)
 以下、本発明の第4の実施形態について説明する。
 本発明の第4の実施形態に係る画像処理システム1の構成は、図1に示される第1の実施形態に係る画像処理システム1の構成と同様であるため、説明を省略する。
 本実施形態では、上述の第1の実施形態とは異なり、顕著度低減処理部204が、糸巻き型の歪曲収差が強いレンズを模して歪曲収差を付与するように画像処理を行う。具体的には、図11に示されるように、邪魔領域を含む周辺領域に、顕著度を低減するレンズ光学特性を模した画像処理が施される。
 本実施形態によれば、邪魔領域を含む周辺領域に歪曲収差を付与し、処理後の画像が邪魔領域を含まないようにすることができるので、撮影者の意図に近いより好適な画像を得ることができる。
 なお、この処理は、糸巻き型の歪曲収差が強いレンズを模した画像処理であるため、入力画像の中心若しくはフォーカス位置を基準として対称性を有するように画像処理がなされる。
(第5の実施形態)
 以下、本発明の第5の実施形態について説明する。
 本発明の第5の実施形態に係る画像処理システム1の構成は、図1に示される第1の実施形態に係る画像処理システム1の構成と同様であるため、説明を省略する。
 本実施形態では、上述の第1の実施形態とは異なり、顕著度低減処理部204が、入力画像のアスペクト比を維持するように、邪魔領域をトリミングする。具体的には、図12Aに示される画像が入力され、図12Bに示されるように邪魔領域が判定されると、この邪魔領域を省くとともに、処理後の画像のアスペクト比が、入力画像のアスペクト比と等しくなるように、図12Bの点線で示されるようなトリミングが行われる。その結果、図12Cに示される画像が生成される。
 本実施形態によれば、邪魔領域をトリミングして処理後の画像が邪魔領域を含まないようにして、撮影者が本来撮りたかった被写体をより良く際立たせることができる。さらに、画像処理前後においてアスペクト比が変更されないので、本来の撮影者の意図に近いより好適な画像を得ることができる。
(応用例)
 以下、上述の第1から第5の実施形態に係る画像処理システム1をデジタルスチルカメラ2に応用した例について、図13Aから図13Dを参照しながら説明する。
 図13Aに示されるデジタルスチルカメラ2は、上述の第1から第5の実施形態に係る画像処理システム1と、シャッターボタン21、タッチパネルディスプレイ22、不図示の電源スイッチ等を備える操作部とを備えている。タッチパネルディスプレイ22上には、図13A及び図13Bに示されるように、撮影モードを設定するためのモードアイコン221、シャッターとして機能するシャッターアイコン222等が適宜表示されるようになっている。
 また、デジタルスチルカメラ2は、タッチパネルディスプレイ22を操作することにより、各種パラメータ、例えば、周辺領域比oR、画像処理の種類、画像処理の強度、演算で用いられる閾値等を設定可能に構成されている。画像処理の種類としては、カメラレンズの周辺減光を模した画像処理、チルトシフトレンズを模した画像処理及び糸巻き型の歪曲収差が強いレンズを模した画像処理のいずれかを選択可能である。画像処理の強度としては、邪魔領域の顕著度の変化量に基づく強度設定及び邪魔領域の顕著度の絶対値に基づく強度設定のいずれかが選択可能である。また、画像処理の強度を設定する際の閾値diff_thr,sVthrが任意に設定可能となっている。これにより、利用シーンやユーザの嗜好に合わせた画像処理が可能となる。
 以下、本応用例に係るデジタルスチルカメラ2の作用について説明する。
 まず、ユーザによりデジタルスチルカメラ2が起動される。続いて、タッチパネルディスプレイ22上のモードアイコン221がユーザに操作されることにより、撮影モードが“Good Mood Mode”に設定される。次に、シャッターボタン21又はシャッターアイコン222がユーザに操作され、図13Cに示されるように、画像が撮像される。撮像された画像は、演算部20によって画像処理が施され、図13Dに示されるように、処理後の画像がタッチパネルディスプレイ22に表示される。これにより、撮影モード“Good Mood Mode”による一連の処理が完了する。
 以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
 例えば、上述の実施形態では、画像処理の強度を、邪魔領域の顕著度の変化量又は絶対値に基づいて決定することとしたが、予め定められた一定の強度で画像処理を施すこととしてもよい。
 また、例えば、画像処理の強度は、入力画像の中心若しくはフォーカス位置からの距離が大きいほど高くすることとしてもよい。
 また、画像処理の種類は、邪魔領域の分布状態に鑑みて切り替えられるようにしてもよい。例えば、邪魔領域が、入力画像における左右及び上下の位置のいずれかに分布している場合は、チルトシフトレンズを模した画像処理を施し、上下及び左右の位置の両方に分布している場合には、カメラレンズの周辺減光を模した画像処理を施して、画像周辺部全周にわたる画像処理を行うこととしてもよい。
20 演算部(画像処理装置)
201 顕著度算出部 
202 周辺領域設定部
203 邪魔領域判定部
204 顕著度低減処理部

Claims (8)

  1.  入力画像に含まれる画素ブロックの顕著度を算出する顕著度算出部と、
     前記入力画像における周辺領域を設定する周辺領域設定部と、
     前記周辺領域において、前記顕著度が第1の閾値よりも大きい画素ブロックを邪魔領域として判定する邪魔領域判定部と、
     前記邪魔領域を含む前記周辺領域に対し、前記顕著度を低減する処理を施す顕著度低減処理部と、
    を備える画像処理装置。
  2.  前記顕著度低減処理部が、前記処理を施す前後での前記邪魔領域における顕著度の変化量が第2の閾値よりも大きくなるように、前記処理の強度を決定する請求項1に記載の画像処理装置。
  3.  前記顕著度低減処理部が、前記邪魔領域の顕著度が第3の閾値以下になるように、前記処理の強度を決定する請求項1に記載の画像処理装置。
  4.  前記顕著度低減処理部が、前記入力画像の中心若しくはフォーカス位置を基準として対称性を有するように前記処理を施す請求項1から請求項3のいずれか一項に記載の画像処理装置。
  5.  前記顕著度低減処理部が、前記基準からの距離が大きいほど前記処理の強度を高くする請求項4に記載の画像処理装置。
  6.  前記顕著度低減処理部が、前記入力画像のアスペクト比を維持するように、前記邪魔領域をトリミングする請求項1に記載の画像処理装置。
  7.  入力画像に含まれる画素ブロックの顕著度を算出する工程と、
     前記入力画像における周辺領域を設定する工程と、
     前記周辺領域において、前記顕著度が第1の閾値よりも大きい画素ブロックを含む領域を邪魔領域として判定する工程と、
     前記邪魔領域を含む前記周辺領域に対し、前記顕著度を低減する処理を施す工程と、
    を備える画像処理方法。
  8.  入力画像に含まれる画素ブロックの顕著度を算出する処理と、
     前記入力画像における周辺領域を設定する処理と、
     前記周辺領域において、前記顕著度が第1の閾値よりも大きい画素ブロックを含む領域を邪魔領域として判定する処理と、
     前記邪魔領域を含む前記周辺領域に対し、前記顕著度を低減する処理を施す処理と、
    をコンピュータに実行させる画像処理プログラム。
PCT/JP2016/067989 2016-06-16 2016-06-16 画像処理装置、画像処理方法及び画像処理プログラム WO2017216933A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/067989 WO2017216933A1 (ja) 2016-06-16 2016-06-16 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/067989 WO2017216933A1 (ja) 2016-06-16 2016-06-16 画像処理装置、画像処理方法及び画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2017216933A1 true WO2017216933A1 (ja) 2017-12-21

Family

ID=60663087

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/067989 WO2017216933A1 (ja) 2016-06-16 2016-06-16 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
WO (1) WO2017216933A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021024860A1 (ja) * 2019-08-05 2021-02-11 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085228A (ja) * 2010-10-14 2012-04-26 Nikon Corp 撮影条件設定装置、撮像装置、画像処理装置および撮影条件設定プログラム
JP2014175963A (ja) * 2013-03-12 2014-09-22 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2014178619A (ja) * 2013-03-15 2014-09-25 Olympus Imaging Corp 撮像装置及びそのピント合わせ方法、ピント合わせプログラム
JP2015115714A (ja) * 2013-12-10 2015-06-22 キヤノン株式会社 撮像装置、撮像装置の制御方法、及び、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085228A (ja) * 2010-10-14 2012-04-26 Nikon Corp 撮影条件設定装置、撮像装置、画像処理装置および撮影条件設定プログラム
JP2014175963A (ja) * 2013-03-12 2014-09-22 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム
JP2014178619A (ja) * 2013-03-15 2014-09-25 Olympus Imaging Corp 撮像装置及びそのピント合わせ方法、ピント合わせプログラム
JP2015115714A (ja) * 2013-12-10 2015-06-22 キヤノン株式会社 撮像装置、撮像装置の制御方法、及び、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021024860A1 (ja) * 2019-08-05 2021-02-11 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
US8717455B2 (en) Image processing apparatus and image processing method
JP6060407B2 (ja) 画像合成装置、画像合成方法、画像合成プログラム及び記録媒体
US20100238325A1 (en) Image processor and recording medium
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6319972B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP6711396B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2013242658A (ja) 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
US9538074B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6320053B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP7277158B2 (ja) 設定装置及び方法、プログラム、記憶媒体
JP6541501B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP2011176557A (ja) 画像処理装置及び方法、並びにプログラム
JP7292905B2 (ja) 画像処理装置及び画像処理方法、及び撮像装置
WO2017216933A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2019047336A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
KR20130098675A (ko) 얼굴 검출 처리 회로 및 이를 포함하는 촬상 장치
JP2023033355A (ja) 画像処理装置およびその制御方法
JP2019191661A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP7398939B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム、並びに記憶媒体
JP2014229988A (ja) 画像処理装置、画像処理方法およびプログラム
JP2019075716A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6157238B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2019016893A (ja) 画像処理装置およびその制御方法及びプログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16905488

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16905488

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP