JP2018206437A - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP2018206437A
JP2018206437A JP2018175923A JP2018175923A JP2018206437A JP 2018206437 A JP2018206437 A JP 2018206437A JP 2018175923 A JP2018175923 A JP 2018175923A JP 2018175923 A JP2018175923 A JP 2018175923A JP 2018206437 A JP2018206437 A JP 2018206437A
Authority
JP
Japan
Prior art keywords
image
image processing
division
subject
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018175923A
Other languages
Japanese (ja)
Inventor
斎藤 郁哉
Ikuya Saito
郁哉 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018175923A priority Critical patent/JP2018206437A/en
Publication of JP2018206437A publication Critical patent/JP2018206437A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing device that divides an image so as to reduce the number of areas as much as possible while subdividing a subject area desired to be extracted.SOLUTION: An image processing device comprises: a storage unit that stores an image; an extraction unit that extracts subject information from the image; a parameter determination unit that determines a division parameter on the basis of the subject information extracted by the extraction unit; an image processing unit that performs division processing on the image by using the division parameter; and an output unit that outputs division processing information by the image processing unit.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置及び画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing program.

従来、撮像画像を複数の小領域に分割し、画素の画像信号の標準偏差および平均値を小領域毎に算出し、ホワイトバランスを調整する撮像装置が存在する(例えば、特許文献1参照)。この撮像装置によれば、予め画像を複数領域に細分化しておき、細分化した領域毎の状態を分析して被写体領域を特定する。   Conventionally, there is an imaging device that divides a captured image into a plurality of small regions, calculates a standard deviation and an average value of image signals of pixels for each small region, and adjusts white balance (see, for example, Patent Document 1). According to this imaging apparatus, the image is divided into a plurality of areas in advance, and the subject area is specified by analyzing the state of each divided area.

特開2010−273319号公報JP 2010-273319 A

しかしながら、上述の撮像装置においては、撮像画像を細分化しすぎると被写体領域の特定効率が低下する。一方細分化が粗すぎると必要な被写体領域が細分化されないという問題があった。従って、抽出したい被写体領域を細分化しつつ出来るだけ少ない領域数とすることが望ましい。   However, in the above-described imaging device, if the captured image is excessively subdivided, the subject area specifying efficiency decreases. On the other hand, if the subdivision is too rough, there is a problem that a necessary subject area is not subdivided. Therefore, it is desirable to reduce the number of areas as much as possible while subdividing the subject area to be extracted.

本発明の目的は、抽出したい被写体領域を細分化しつつ出来るだけ領域数が少なくなるように画像の分割を行う画像処理装置及び画像処理プログラムを提供することである。   An object of the present invention is to provide an image processing apparatus and an image processing program for dividing an image so as to reduce the number of regions as much as possible while subdividing a subject region to be extracted.

本発明の画像処理装置は、画像を記憶する記憶部と、前記画像から被写体の情報を抽出する抽出部と、前記抽出部により抽出された前記被写体の情報に基づいて分割パラメータを決定するパラメータ決定部と、前記画像について前記分割パラメータを用いて分割処理を行う画像処理部と、前記画像処理部による分割処理情報を出力する出力部とを備える。   An image processing apparatus according to the present invention includes a storage unit that stores an image, an extraction unit that extracts subject information from the image, and a parameter determination that determines a division parameter based on the subject information extracted by the extraction unit. An image processing unit that performs a division process on the image using the division parameter, and an output unit that outputs information on a division process performed by the image processing unit.

また、本発明の画像処理プログラムは、画像を記憶する記憶部を備えた画像処理装置を、 前記画像から被写体の情報を抽出するステップ、前記被写体の情報に基づいて分割パラメータを決定するステップ、前記画像について前記分割パラメータを用いて分割処理を行うステップ、前記分割パラメータを用いて行われた分割処理情報を出力するステップとして機能させる。   The image processing program of the present invention includes an image processing apparatus including a storage unit that stores an image, a step of extracting subject information from the image, a step of determining a division parameter based on the subject information, It functions as a step of performing division processing on the image using the division parameter, and a step of outputting division processing information performed using the division parameter.

本発明によれば、抽出したい被写体領域を細分化しつつ出来るだけ領域数が少なくなるように画像の分割を行うことができる。   According to the present invention, it is possible to divide an image so as to reduce the number of regions as much as possible while subdividing a subject region to be extracted.

実施の形態に係る画像処理装置のシステム構成を示すブロック図である。1 is a block diagram showing a system configuration of an image processing apparatus according to an embodiment. 実施の形態に係る顔サイズとKの値の関係を示す図である。It is a figure which shows the relationship between the face size and K value which concern on embodiment. 実施の形態に係る撮影画角内の被写体、画像をK=60で細分化した場合及び画像をK=100で細分化した場合を示す図である。It is a figure which shows the case where the subject within the imaging | photography angle of view which concerns on embodiment, the image is subdivided by K = 60, and the image is subdivided by K = 100. 実施の形態に係る撮影画角内の被写体、画像をK=60で細分化した場合及び画像をK=100で細分化した場合を示す図である。It is a figure which shows the case where the subject within the imaging | photography angle of view which concerns on embodiment, the image is subdivided by K = 60, and the image is subdivided by K = 100. 実施の形態に係る画像の画面中の動体を示す図である。It is a figure which shows the moving body in the screen of the image which concerns on embodiment. 実施の形態に係る画像の画面中の動体を示す図である。It is a figure which shows the moving body in the screen of the image which concerns on embodiment.

以下、図面を参照して、本発明の実施の形態に係る画像処理装置についてカメラを例に説明する。図1は、実施の形態に係るカメラのシステム構成を示すブロック図である。図1に示すように、カメラ2は、カメラ2の各部を統括的に制御する制御部4を備えている。制御部4には、被写体を撮像する撮像部6、撮像部6から出力された撮像信号から生成された画像データを記憶するメモリ8、制御部4が実行する撮影処理、分割処理等のプログラムを記憶するプログラムメモリ10、撮影画像の画像データ等を記憶するメモリカード12、カメラ2の背面部に配置され撮像部6により撮像された画像、スルー画及びカメラ2のモードを設定する画面等を表示するLCD表示部14及び操作部16が接続されている。ここで操作部16は、電源スイッチ及びレリーズボタン等を備えている。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings, taking a camera as an example. FIG. 1 is a block diagram illustrating a system configuration of a camera according to an embodiment. As shown in FIG. 1, the camera 2 includes a control unit 4 that comprehensively controls each unit of the camera 2. The control unit 4 includes an imaging unit 6 that captures an image of a subject, a memory 8 that stores image data generated from an imaging signal output from the imaging unit 6, and a program such as an imaging process and a division process that are executed by the control unit 4. A program memory 10 to be stored, a memory card 12 to store image data of a photographed image, an image arranged on the back surface of the camera 2, an image captured by the imaging unit 6, a screen for setting a mode of the camera 2, and the like are displayed. The LCD display unit 14 and the operation unit 16 are connected. Here, the operation unit 16 includes a power switch, a release button, and the like.

次に、本発明の実施の形態に係るカメラによる分割処理について説明する。操作者が操作部16の電源スイッチを操作することによりカメラ2の電源をオンにすると、制御部4は、撮像部6により所定のフレームレートで被写体を撮像し、撮像部6から出力された撮像信号に基づいてLCD表示部14にスルー画像を表示する。ここで、撮像部6から出力されたスルー画像の画像データは一時的にメモリ8に記憶される。   Next, division processing by the camera according to the embodiment of the present invention will be described. When the operator turns on the power of the camera 2 by operating the power switch of the operation unit 16, the control unit 4 images the subject at a predetermined frame rate by the imaging unit 6 and outputs the image output from the imaging unit 6. A through image is displayed on the LCD display unit 14 based on the signal. Here, the image data of the through image output from the imaging unit 6 is temporarily stored in the memory 8.

操作者がレリーズボタンを半押しすると、制御部4はメモリ8に一時的に記憶された画像データに基づく画像について分割処理を行い画像を細分化する。画像の細分化では、隣接した画素群が同じオブジェクト領域に属するか否かを、特徴量の類似性を用いて判別する。その結果、類似した特徴を有する隣接画素群がグループ化され、画像が複数の領域に細分化される。その際、どの程度の大きさに細分化するかを、調整することが可能である。   When the operator presses the release button halfway, the control unit 4 performs a division process on the image based on the image data temporarily stored in the memory 8 to subdivide the image. In subdivision of an image, whether or not adjacent pixel groups belong to the same object region is determined using the similarity of feature amounts. As a result, adjacent pixel groups having similar characteristics are grouped, and the image is subdivided into a plurality of regions. At that time, it is possible to adjust the size of the subdivision.

例えば、細分化手法としてk−means法を用いる場合、k−means法は、与えられたクラスタ数K個に要素を分割するものであるが、その際、各クラスタ内の平均が最小となるように分割を行う。具体的には、まず、K個のクラスタの中心をランダムに割り当てる(ステップ1)。次に各要素を最も近い中心(クラスタ)に割り当てる(ステップ2)。そして各クラスタの中心を再計算する(ステップ3)。その結果、全クラスタの中心が変化しなければ終了し、そうでなければステップ2へ戻る。この手法を画像の細分化に用いる場合は、対象とする要素は画素である。クラスタ中心との距離は、中心画素との色差、及び画面距離を用いる。ここで、クラスタ中心との距離は次のように表される。
クラスタ中心との距離=中心画素との色差+中心画素との画面距離
クラスタ中心との距離=pΔuv+qΔxy
クラスタ中心との距離=√[(ui−uj)2+(vi−vj)2] + √[(xi−xj)2+(yi−yj)2]
細分化の度合い(分割パラメータ)はクラスタKの値で調整することが可能である。ここで、Kの値が小さければ、細分化の度合いは小さく(細分化された領域の面積は大きく)なり、Kの値が大きければ、細分化の度合いは大きく(細分化された領域の面積は小さく)なる。
For example, when the k-means method is used as a subdividing method, the k-means method divides elements into a given number of clusters K, and at this time, the average in each cluster is minimized. Split into Specifically, first, the centers of K clusters are randomly assigned (step 1). Next, each element is assigned to the nearest center (cluster) (step 2). Then, the center of each cluster is recalculated (step 3). As a result, if the centers of all the clusters have not changed, the process ends. Otherwise, the process returns to step 2. When this method is used for image segmentation, the target element is a pixel. The distance from the cluster center uses the color difference from the center pixel and the screen distance. Here, the distance from the cluster center is expressed as follows.
Distance from cluster center = color difference from center pixel + screen distance from center pixel distance from cluster center = pΔuv + qΔxy
Distance from cluster center = √ [(ui−uj) 2 + (vi−vj) 2 ] + √ [(xi−xj) 2 + (yi−yj) 2 ]
The degree of subdivision (division parameter) can be adjusted by the value of cluster K. Here, if the value of K is small, the degree of subdivision is small (the area of the subdivided region is large), and if the value of K is large, the degree of subdivision is large (the area of the subdivided region). Is smaller).

本発明は、被写体の大きさに基づいてKの値を変化させる。この場合被写体は人間であり、検出した顔の大きさに基づいてKの値を変化させる。ここで、Kの値は次のように表される。なお、fは顔サイズである。
K=s(f)
s(f)は、図2に示すように、顔サイズの大きさによって決まる関数であり、顔サイズが大きいほど大きな値をとる。この実施の形態では、顔の大きさを正方矩形で定義した場合の辺の長さf(顔サイズ)に比例する関数とした。また、K=s(f)を適用する範囲には、上限と下限を設定し、そこを外れた範囲は固定値とした。上限は、細分化される領域が大きくなりすぎないような値とし、下限は、検出できる顔サイズの大きさの限界とした。
The present invention changes the value of K based on the size of the subject. In this case, the subject is a human and the value of K is changed based on the detected face size. Here, the value of K is expressed as follows. Note that f is the face size.
K = s (f)
As shown in FIG. 2, s (f) is a function determined by the size of the face size, and takes a larger value as the face size increases. In this embodiment, the function is proportional to the side length f (face size) when the face size is defined by a square rectangle. In addition, an upper limit and a lower limit are set in a range to which K = s (f) is applied, and a range outside the range is set to a fixed value. The upper limit was set to a value that would prevent the area to be subdivided from becoming too large, and the lower limit was set to the limit of the size of the face that can be detected.

制御部4は顔認識機能を用いてメモリ8に一時的に記憶された画像データに基づく画像について人の顔を検出し、検出した顔の大きさに応じた正方矩形の辺の長さに基づいて顔サイズfを検出する。そして、K=s(f)=α×fによりKの値を決定しKを用いてメモリ8に記憶されている画像データに基づく画像の分割処理を行う。   The control unit 4 detects a human face in the image based on the image data temporarily stored in the memory 8 using the face recognition function, and based on the length of the square rectangle according to the detected face size. The face size f is detected. Then, the value of K is determined by K = s (f) = α × f, and image division processing based on image data stored in the memory 8 is performed using K.

図3に、顔サイズが大きい場合の画像(a)、画像をK=60で細分化をした場合(b)及び画像をK=100で細分化をした場合(c)の例を示す。この場合、適したKの値は60である。K=60では被写体部分が十分に分割されているが、K=100では、被写体の大きさに対し、過剰に分割されている。   FIG. 3 shows an example of an image (a) when the face size is large, a case where the image is subdivided with K = 60 (b), and a case where the image is subdivided with K = 100 (c). In this case, a suitable value of K is 60. The subject portion is sufficiently divided at K = 60, but is excessively divided with respect to the size of the subject at K = 100.

また図4に、顔サイズが小さい場合の画像(a)、画像をK=60で細分化した場合(b)及び画像をK=100で細分化した場合(c)の例を示す。この場合、適したKの値は100である。K=60では被写体部分が分割されない。K=100では、被写体部分が十分に分割されている。   FIG. 4 shows an example of an image (a) when the face size is small, a case where the image is subdivided with K = 60 (b), and a case where the image is subdivided with K = 100 (c). In this case, a suitable value for K is 100. When K = 60, the subject portion is not divided. When K = 100, the subject portion is sufficiently divided.

制御部4は、分割処理により細分化された画像の画像データをメモリ8に対し出力し一時的に記憶し、記憶された細分化された画像の画像データに基づいて被写体領域及び背景領域を特定する。そして、特定された被写体領域はAF等の処理に用いられる。即ち、制御部4は特定された被写体領域について図示しないAF駆動部により焦点合わせの動作を行う。   The control unit 4 outputs the image data of the image subdivided by the division processing to the memory 8 and temporarily stores it, and specifies the subject area and the background area based on the stored image data of the subdivided image To do. The identified subject area is used for processing such as AF. That is, the control unit 4 performs a focusing operation on the specified subject area by an AF driving unit (not shown).

本発明の実施の形態に係るカメラによれば、被写体の大きさに基づいて画像の細分化の度合いを決定するため、抽出したい被写体領域を細分化しつつ出来るだけ領域数が少なくなるように画像の分割を行うことができる。   According to the camera of the embodiment of the present invention, since the degree of subdivision of the image is determined based on the size of the subject, the number of regions is reduced as much as possible while subdividing the subject region to be extracted. Division can be performed.

なお、上述のk−means法とは別の細分化手法として論文(タイトル:Efficient Graph-Based Image Segmentation,著者:Pedro F. Felzenszwalb and Daniel P. Huttenlocher,出典:International Journal of Computer Vision, Volume 59,Number 2, September 2004,参照URL:http:// people.cs.uchicago. edu/~pff/papers/seg-ijcv.pdf)に記載されている手法が知られている。   In addition, a paper (Title: Efficient Graph-Based Image Segmentation, Author: Pedro F. Felzenszwalb and Daniel P. Huttenlocher, Source: International Journal of Computer Vision, Volume 59, Number 2, September 2004, reference URL: http://people.cs.uchicago.edu/~pff/papers/seg-ijcv.pdf) is known.

上述の論文に記載されている細分化手法は、隣接した画素群(領域)を、統合すべきか否かを順次判別する方法である。細分化の度合い(分割パラメータ)は、以下の式で定義する係数τ(C)によって決定される。ここで、係数τ(C)は、値が大きいほど統合しやすくさせる。なお、Cは領域面積であり、kは定数である。
τ(C)=k/C
係数τ(C)は、領域面積Cの逆数となっており、面積が小さいほど統合されやすい効果をもつ。被写体の大きさに基づいてτ(C)を変化させると、この場合においても被写体が人である場合には、検出した顔サイズの大きさに基づいて、次の式に表すようにτ(C)を変化させることで、k−means法と同様の効果を得ることができる。
τ(C)=s(f)×k/C
また、上述の実施の形態において、画面中の動いている部分(動体)を被写体とみなし、動体の大きさに基づいて次の式に表すようにτ(C)を変化させるようにしてもよい。なお、mは動体サイズである。
τ(C)=s(m)×k/C
s(m)は、動体サイズの大きさによって決まる関数であり、動体サイズが大きいほど大きな値をとる。この場合、動体サイズmに比例する関数とし、動体サイズmは動体とみなした部分を包含する矩形枠の面積をとした。ここで、図5は動いている人の大きさが小さい場合を示す図であり、図6は動いている人の大きさが大きい場合を示す。
The subdivision method described in the above paper is a method for sequentially determining whether or not adjacent pixel groups (regions) should be integrated. The degree of division (division parameter) is determined by a coefficient τ (C) defined by the following equation. Here, the coefficient τ (C) is easily integrated as the value increases. Note that C is a region area and k is a constant.
τ (C) = k / C
The coefficient τ (C) is the reciprocal of the area C, and the smaller the area, the more easily integrated. When τ (C) is changed based on the size of the subject, even in this case, if the subject is a person, τ (C) is expressed based on the size of the detected face as shown in the following equation. ) Can be changed to obtain the same effect as the k-means method.
τ (C) = s (f) × k / C
In the above-described embodiment, a moving part (moving object) in the screen may be regarded as a subject, and τ (C) may be changed based on the size of the moving object as shown in the following equation. . In addition, m is a moving body size.
τ (C) = s (m) × k / C
s (m) is a function determined by the size of the moving object, and takes a larger value as the moving object size increases. In this case, the function is proportional to the moving object size m, and the moving object size m is the area of a rectangular frame that includes the portion considered as a moving object. Here, FIG. 5 shows a case where the size of the moving person is small, and FIG. 6 shows a case where the size of the moving person is large.

動体部分の検出はどのような方法でもよい。例えば、異なる時間に取得した複数画像において、重ならない部分が動いている部分であるとみなす方法、又は、画像中のサンプリング点の動きベクトルを算出する方法でもよい。   Any method may be used to detect the moving body portion. For example, in a plurality of images acquired at different times, a method in which a non-overlapping portion is regarded as a moving portion or a method of calculating a motion vector of sampling points in the image may be used.

また、上述の実施の形態においては、カメラ2を用いて分割処理を行っているが、パソコン等の画像処理装置を用いて上述の分割処理を行うようにしてもよい。   In the above-described embodiment, the dividing process is performed using the camera 2. However, the above-described dividing process may be performed using an image processing apparatus such as a personal computer.

また、パソコン等の画像処理装置に上述の画像データの分割処理を実施させるプログラムを読み込んで画像データに基づく画像の分割処理を実行するようにしてもよい。即ち、上述の実施の形態で用いられている画像の分割処理プログラムはパソコン等に、画像から被写体の情報を抽出するステップ、被写体の情報に基づいて分割パラメータを決定するステップ、画像について分割パラメータを用いて分割処理を行うステップ、分割パラメータを用いて行われた分割処理情報を出力するステップを実行させる。従って、上述の実施の形態に係る画像データの分割処理プログラムによれば、メモリに予め記憶されている画像データに基づく画像の被写体の大きさに基づいて画像の細分化の度合いを決定するため、抽出したい被写体領域を細分化しつつ出来るだけ領域数が少なくなるように画像の分割を行うことができる。   Alternatively, a program for causing the image processing apparatus such as a personal computer to perform the above-described image data division processing may be read to execute the image division processing based on the image data. That is, the image division processing program used in the above-described embodiment is a step of extracting information on a subject from an image, a step of determining a division parameter based on the information of the subject, and a division parameter for the image. A step of performing division processing using and a step of outputting division processing information performed using the division parameters are executed. Therefore, according to the image data division processing program according to the above-described embodiment, in order to determine the degree of subdivision of the image based on the size of the subject of the image based on the image data stored in advance in the memory, The image can be divided so that the number of regions is reduced as much as possible while subdividing the subject region to be extracted.

この場合、画像処理装置の制御部は、メモリに記憶されている画像データに基づく画像について分割処理を行い細分化し、特定された被写体に基づいて画像データに対してホワイトバランス調整を行うようにしてもよい。   In this case, the control unit of the image processing device performs division processing on the image based on the image data stored in the memory to subdivide the image, and performs white balance adjustment on the image data based on the specified subject. Also good.

また、上述の実施の形態において、分割処理の結果を表示部14において表示するようにしても良い。例えば細分化された画像において特定された被写体領域及び背景領域について異なる色を用いてLCD表示部14に表示するようにしてもよい。   In the above-described embodiment, the result of the division process may be displayed on the display unit 14. For example, the subject area and background area specified in the subdivided image may be displayed on the LCD display unit 14 using different colors.

2…カメラ、4…制御部、6…撮像部、8…メモリ、10…プログラムメモリ、14…LCD表示部、16…操作部。   DESCRIPTION OF SYMBOLS 2 ... Camera, 4 ... Control part, 6 ... Imaging part, 8 ... Memory, 10 ... Program memory, 14 ... LCD display part, 16 ... Operation part.

Claims (6)

画像を記憶する記憶部と、
前記画像から被写体の情報を抽出する抽出部と、
前記抽出部により抽出された前記被写体の情報に基づいて分割パラメータを決定するパラメータ決定部と、
前記画像について前記分割パラメータを用いて分割処理を行う画像処理部と、
前記画像処理部による分割処理情報を出力する出力部と
を備えることを特徴とする画像処理装置。
A storage unit for storing images;
An extraction unit for extracting subject information from the image;
A parameter determination unit for determining a division parameter based on the subject information extracted by the extraction unit;
An image processing unit that performs a division process on the image using the division parameter;
An image processing apparatus comprising: an output unit that outputs division processing information by the image processing unit.
前記被写体の情報は、主要被写体の顔の大きさの情報であることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the subject information is information on a face size of a main subject. 前記被写体の情報は、動体物領域の大きさの情報であることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the subject information is information on a size of a moving object region. 画像を記憶する記憶部を備えた画像処理装置を、
前記画像から被写体の情報を抽出するステップ、
前記被写体の情報に基づいて分割パラメータを決定するステップ、
前記画像について前記分割パラメータを用いて分割処理を行うステップ、
前記分割パラメータを用いて行われた分割処理情報を出力するステップ、
として機能させるための画像処理プログラム。
An image processing apparatus having a storage unit for storing an image,
Extracting subject information from the image;
Determining division parameters based on the subject information;
Performing a division process on the image using the division parameter;
Outputting division processing information performed using the division parameter;
Image processing program to function as
前記被写体の情報は、主要被写体の顔の大きさの情報であることを特徴とする請求項4記載の画像処理プログラム。   5. The image processing program according to claim 4, wherein the subject information is information on a face size of a main subject. 前記被写体の情報は、動体物領域の大きさの情報であることを特徴とする請求項4記載の画像処理プログラム。   The image processing program according to claim 4, wherein the subject information is information on a size of a moving object region.
JP2018175923A 2018-09-20 2018-09-20 Image processing device and image processing program Pending JP2018206437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018175923A JP2018206437A (en) 2018-09-20 2018-09-20 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018175923A JP2018206437A (en) 2018-09-20 2018-09-20 Image processing device and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016232367A Division JP6406340B2 (en) 2016-11-30 2016-11-30 Image processing apparatus and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2018206437A true JP2018206437A (en) 2018-12-27

Family

ID=64957338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018175923A Pending JP2018206437A (en) 2018-09-20 2018-09-20 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP2018206437A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223056A (en) * 2008-03-17 2009-10-01 Fujifilm Corp Photographic apparatus and method
JP2010067252A (en) * 2008-08-15 2010-03-25 Fuji Xerox Co Ltd Object region extraction device and object region extraction program
JP2010103612A (en) * 2008-10-21 2010-05-06 Nikon Corp Electronic camera and image processing program
JP2010109671A (en) * 2008-10-30 2010-05-13 Panasonic Corp Image capturing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223056A (en) * 2008-03-17 2009-10-01 Fujifilm Corp Photographic apparatus and method
JP2010067252A (en) * 2008-08-15 2010-03-25 Fuji Xerox Co Ltd Object region extraction device and object region extraction program
JP2010103612A (en) * 2008-10-21 2010-05-06 Nikon Corp Electronic camera and image processing program
JP2010109671A (en) * 2008-10-30 2010-05-13 Panasonic Corp Image capturing apparatus

Similar Documents

Publication Publication Date Title
EP3477931B1 (en) Image processing method and device, readable storage medium and electronic device
KR102574141B1 (en) Image display method and device
US9036072B2 (en) Image processing apparatus and image processing method
US10861128B2 (en) Method of cropping an image, an apparatus for cropping an image, a program and a storage medium
KR101548183B1 (en) Image processing apparatus and method for controlling same
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
JP2015185034A (en) Image recognition apparatus, image recognition method, and program
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
JP2015115818A (en) Image processing apparatus, image processing method, and program
JP6406340B2 (en) Image processing apparatus and imaging apparatus
JP2018206437A (en) Image processing device and image processing program
JP7304704B2 (en) Image clipping device, image analysis device and program
JP2013196529A (en) Image processing device and image processing program
JP6598402B1 (en) Receipt and other form image automatic acquisition / reading method, program, and portable terminal device
JP5146223B2 (en) Program, camera, image processing apparatus, and image contour extraction method
US20230122606A1 (en) Image capturing system, control method, and storage medium
JP2019022166A (en) Image processing apparatus, image processing method, and image processing program
EP3496390B1 (en) Information processing device, information processing method, and storage medium
JP5629562B2 (en) Image processing apparatus, control method therefor, and program
JP5631181B2 (en) Image processing apparatus, control method therefor, and program
JP6314281B1 (en) Image processing method and foreground region acquisition method
JP2019021223A (en) Image processing apparatus, image processing method, and image processing program
JP7012457B2 (en) Image processing device, image processing method
JP2016220144A (en) Imaging device and image processing method
JP5605492B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200310