JP5604980B2 - Red-eye determination device and red-eye determination method - Google Patents
Red-eye determination device and red-eye determination method Download PDFInfo
- Publication number
- JP5604980B2 JP5604980B2 JP2010120091A JP2010120091A JP5604980B2 JP 5604980 B2 JP5604980 B2 JP 5604980B2 JP 2010120091 A JP2010120091 A JP 2010120091A JP 2010120091 A JP2010120091 A JP 2010120091A JP 5604980 B2 JP5604980 B2 JP 5604980B2
- Authority
- JP
- Japan
- Prior art keywords
- red
- eye
- distance
- subject
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、赤目判定装置、および、赤目判定方法に関する。 The present invention relates to a red-eye determination device and a red-eye determination method.
カメラなどの撮像装置によって撮像された画像に赤目が発生することがある。従来から、撮像画像に赤目が発生する可能性を予測し、赤目が発生すると予測される場合には、フラッシュライトを点灯せずに撮像する技術がある。 Red eyes may occur in an image captured by an imaging device such as a camera. Conventionally, there is a technique for predicting the possibility of red eyes occurring in a captured image, and imaging without turning on a flashlight when red eyes are predicted to occur.
例えば、特許文献1では、撮像に先立ち、被写体の輝度や、カメラから被写体までの距離を用いて、撮像画像に赤目が発生する可能性について予測している。このような技術を用いれば、赤目の発生を簡易に予測することができる。 For example, Patent Document 1 predicts the possibility of red eyes occurring in a captured image using the luminance of the subject and the distance from the camera to the subject prior to imaging. Using such a technique, it is possible to easily predict the occurrence of red eyes.
しかし、実際には、被写体の輝度や、カメラから被写体までの距離といった情報から、精度良く赤目の発生を予測できない場合がある。 However, in reality, the occurrence of red eyes may not be accurately predicted from information such as the brightness of the subject and the distance from the camera to the subject.
本発明は、撮像に先だち、簡易な方法によって従来よりも精度良く赤目の発生を予測する技術を提供することを目的とする。 It is an object of the present invention to provide a technique for predicting the occurrence of red eyes with a simple method prior to imaging.
上記の課題を解決する本発明の一態様は、発光部と、レンズを介して被写体を撮像した撮像画像を出力するイメージセンサーと、前記発光部と前記被写体を結ぶ直線と、当該被写体と前記レンズを結ぶ直線と、のなす角を算出し、当該なす角に基づいて前記撮像画像に赤目が発生するか否か予測する赤目発生予測部と、前記赤目発生予測部で赤目が発生すると予測された場合に警告を行う警告部と、を備え、前記赤目発生予測部は、前記撮像画像内における目の位置に基づいて算出した、前記被写体を含む被写体面における前記目の座標に基づいて前記なす角を算出し、前記赤目発生予測部は、前記レンズから前記被写体面までの第1の距離と、前記イメージセンサーから前記レンズまでの第2の距離と、前記レンズの所定の位置を示す第1の座標に基づいて決まる、前記発光部の所定の位置を示す座標である第2の座標と、を取得し、撮像画像の中心位置を示す第3の座標に基づいて決まる、当該撮像画像内における前記被写体の位置を示す第4の座標を算出し、前記第1の距離と、前記第2の距離と、前記第3の座標と前記第4の座標との間の第3の距離と、から定まる、前記被写体面における前記レンズの光軸上の点から前記被写体の位置までの第4の距離を算出し、前記被写体面における前記レンズの光軸上の点の座標に基づいて決まる、前記被写体の位置を示す第5の座標を、前記第2の座標と、前記第3の距離と、前記第4の距離と、に基づき算出し、前記第1の座標と、前記第5の座標と、前記第2の座標と、から前記なす角を算出する、ことを特徴とする赤目判定装置である。 One embodiment of the present invention that solves the above problems includes a light emitting unit, an image sensor that outputs a captured image obtained by imaging a subject via a lens, a straight line that connects the light emitting unit and the subject, the subject, and the lens. It is predicted that a red eye will be generated in the red-eye occurrence prediction unit, and a red-eye occurrence prediction unit that calculates whether or not red-eye occurs in the captured image based on the angle formed by the straight line connecting A warning unit that issues a warning when the angle is formed based on the coordinates of the eye on the subject surface including the subject, the red-eye occurrence prediction unit calculated based on the position of the eye in the captured image The red-eye occurrence prediction unit calculates a first distance from the lens to the subject surface, a second distance from the image sensor to the lens, and a first position indicating the predetermined position of the lens. A second coordinate which is a coordinate indicating a predetermined position of the light emitting unit, which is determined based on the coordinates, and is determined based on a third coordinate indicating the center position of the captured image. A fourth coordinate indicating the position of the subject is calculated, and is determined from the first distance, the second distance, and a third distance between the third coordinate and the fourth coordinate. Calculating a fourth distance from a point on the optical axis of the lens on the subject surface to the position of the subject, and determining the fourth object distance based on the coordinates of the point on the optical axis of the lens on the subject surface. A fifth coordinate indicating a position is calculated based on the second coordinate, the third distance, and the fourth distance, and the first coordinate, the fifth coordinate, A red-eye determination characterized by calculating the angle formed from the second coordinates. It is the location.
前記赤目発生予測部は、前記なす角が所定の角度より狭い場合に、撮像画像に赤目が発生すると予測する、ことを特徴としてもよい。 The red-eye occurrence prediction unit may predict that red-eye occurs in the captured image when the angle formed is narrower than a predetermined angle.
前記赤目発生予測部は、前記第4の距離=前記第3の距離×(前記第1の距離/前記第2の距離)/前記イメージセンサーにおけるズーム倍率の関係式を用いて、前記第4の距離を算出する、ことを特徴としてもよい。 The red-eye occurrence prediction unit uses the relational expression of the fourth distance = the third distance × (the first distance / the second distance) / the zoom magnification in the image sensor to calculate the fourth distance. The distance may be calculated.
前記警告部は、撮像シャッターが半押し状態にされるタイミングで前記警告を行う、ことを特徴としてもよい。 The warning unit may perform the warning at a timing when the imaging shutter is half-pressed.
上記の課題を解決する本発明の他の態様は、発光部と、レンズを介して被写体を撮像した撮像画像を出力するイメージセンサーと、を備える装置における赤目判定方法であって、前記発光部と前記被写体を結ぶ直線と、当該被写体と前記レンズを結ぶ直線と、のなす角を算出し、当該なす角に基づいて前記撮像画像に赤目が発生するか否か予測する赤目発生予測ステップと、前記赤目発生予測ステップで赤目が発生すると予測された場合に警告を行う警告ステップと、を行い、前記赤目発生予測ステップでは、前記撮像画像内における目の位置に基づいて算出した、前記被写体を含む被写体面における前記目の座標に基づいて前記なす角を算出し、前記赤目発生予測ステップでは、前記レンズから前記被写体面までの第1の距離と、前記イメージセンサーから前記レンズまでの第2の距離と、前記レンズの所定の位置を示す第1の座標に基づいて決まる、前記発光部の所定の位置を示す座標である第2の座標と、を取得し、撮像画像の中心位置を示す第3の座標に基づいて決まる、当該撮像画像内における前記被写体の位置を示す第4の座標を算出し、前記第1の距離と、前記第2の距離と、前記第3の座標と前記第4の座標との間の第3の距離と、から定まる、前記被写体面における前記レンズの光軸上の点から前記被写体の位置までの第4の距離を算出し、前記被写体面における前記レンズの光軸上の点の座標に基づいて決まる、前記被写体の位置を示す第5の座標を、前記第2の座標と、前記第3の距離と、前記第4の距離と、に基づき算出し、前記第1の座標と、前記第5の座標と、前記第2の座標と、から前記なす角を算出する、ことを特徴とする。 Another aspect of the present invention that solves the above-described problem is a red-eye determination method in an apparatus that includes a light-emitting unit and an image sensor that outputs a captured image obtained by imaging a subject via a lens. A red eye occurrence prediction step of calculating an angle formed by a straight line connecting the subject and a straight line connecting the subject and the lens, and predicting whether or not a red eye is generated in the captured image based on the formed angle; A warning step for giving a warning when red-eye occurrence is predicted in the red-eye occurrence prediction step, and the subject including the subject calculated based on the position of the eye in the captured image in the red-eye occurrence prediction step The angle formed is calculated based on the coordinates of the eye on the surface, and the red eye occurrence prediction step includes a first distance from the lens to the subject surface, and the image A second distance from the disensor to the lens, and a second coordinate that is a coordinate indicating the predetermined position of the light emitting unit, which is determined based on the first coordinate indicating the predetermined position of the lens. Calculating a fourth coordinate indicating the position of the subject in the captured image, which is determined based on the third coordinate indicating the center position of the captured image, and the first distance, the second distance, A fourth distance from a point on the optical axis of the lens on the object plane to the position of the subject is determined from a third distance between the third coordinate and the fourth coordinate. The fifth coordinate indicating the position of the subject, the second coordinate, the third distance, and the fourth distance determined based on the coordinates of the point on the optical axis of the lens on the subject surface. Distance based on the first coordinate and the fifth coordinate Calculating the coordinates, and the second coordinates, the angle from, characterized in that.
前記赤目発生予測ステップでは、前記なす角が所定の角度より狭い場合に、撮像画像に赤目が発生すると予測する、ことを特徴としてもよい。 In the red-eye occurrence prediction step, when the formed angle is narrower than a predetermined angle, it is predicted that red-eye is generated in the captured image.
前記赤目発生予測ステップでは、前記第4の距離=前記第3の距離×(前記第1の距離/前記第2の距離)/前記イメージセンサーにおけるズーム倍率の関係式を用いて、前記第4の距離を算出する、ことを特徴としてもよい。 In the red-eye occurrence predicting step, the fourth distance = the third distance × (the first distance / the second distance) / the zoom magnification ratio in the image sensor is used to calculate the fourth distance. The distance may be calculated.
前記警告ステップでは、撮像シャッターが半押し状態にされるタイミングで前記警告を行う、ことを特徴としてもよい。 In the warning step, the warning may be performed when the imaging shutter is half-pressed.
以下、本発明の実施形態の一例を図面を参照して説明する。 Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.
本発明の一実施形態が適用された撮像装置100は、デジタルカメラなどの一般的なカメラとして機能する。また、撮像装置100は、撮像に先だって、撮像画像に赤目が発生するか否か予測し、赤目が発生すると予測される場合に警告を行う機能を有する。
The
図1は、本発明の一実施形態が適用された撮像装置100のハードウェア構成の一例を示すブロック図である。図示するように、撮像装置100は、CPU(Central Processing Unit)110と、揮発性メモリー120と、不揮発性メモリー130と、入力装置140と、ディスプレイ150と、インターフェイス160と、撮像機構170と、を備える。
FIG. 1 is a block diagram illustrating an example of a hardware configuration of an
CPU110は、他のユニットを制御して撮像装置100の各種機能を実現する演算装置である。CPU110は、不揮発性メモリー130などの記憶媒体に格納された所定のプログラムを揮発性メモリー120にロードして実行することにより各種機能を実現する。
The
揮発性メモリー120は、例えば、RAM(Random Access Memory)等の揮発性の記憶媒体で構成され、各種プログラム、データなどを一時的に格納し、CPU110による演算時のワークメモリーとして使用される。
The volatile memory 120 is configured by a volatile storage medium such as a RAM (Random Access Memory), for example, temporarily stores various programs and data, and is used as a work memory when the
不揮発性メモリー130は、FlashROM等の不揮発性の記憶媒体で構成され、各種プログラムを格納する。例えば、不揮発性メモリー130は、被写体を撮像するためのプログラムや、撮像時に用いる各種既定値などを格納する。また、不揮発性メモリー130には、SDカードなどの外部メモリーも含まれ、撮像画像が格納される。
The
入力装置140は、撮像を指示するボタン(以下では「撮像シャッター」とよぶ)や、各種設定や決定を指示するボタン群(以下では「操作ボタン」とよぶ)などから構成される。入力装置140は、撮像シャッターや操作ボタンを介して、ユーザーからの指示を受け付ける。
The
ディスプレイ150は、液晶ディスプレイや有機ELディスプレイなどから構成される。ディスプレイ150は、撮像モードにおいてはファインダー(電子ファインダー)としての役割を担い、撮像予定の画像(すなわち、イメージセンサーで得られるアナログの画像信号をビデオ信号に変換したデータ)を表示する。また、ディスプレイ150は、ユーザーに対して警告やアナウンスを行うためのメッセージや、各種設定画面などを表示する。
The
インターフェイス160は、各種デバイス(不図示)とのデータのやりとり(受信、送信)を制御し、USBケーブルやネットワークを介して各種デバイスと通信を行う。なお、各種デバイスには、撮像装置100を制御する制御装置(例えば、PC)や、撮像装置100で撮像された撮像画像の編集する機能を有する情報処理装置(例えば、PC)などが含まれる。
The
撮像機構170は、被写体を撮像する。例えば、撮像機構170は、図示するように、制御回路171と、発光装置172と、レンズ173と、イメージセンサー174と、距離測定装置175と、を備える。
The
制御回路171は、撮像機構170に備わる各ユニットを制御し、撮像の制御を行う。
The
発光装置172は、一般的なフラッシュランプ(例えば、キセノンランプ)を点灯し、被写体を照明する。
The
レンズ173は、一般的なカメラ用レンズであり、外部からの光をイメージセンサー173上に集光する。
The
イメージセンサー174は、レンズ173によって集光された光を受光し、受光量に応じて電荷を蓄積し、撮像画像(アナログ信号)として出力(例えば、不図示の制御回路171に転送)する。イメージセンサー174には、例えば、CCDイメージセンサーやCMOSイメージセンサーなどが用いられる。
The
距離測定装置175は、所定のセンサー(いわゆる、距測センサー)を備え、レンズ173から被写体までの距離を測定する。例えば、距離測定装置175は、所定の電波(超音波、赤外線など)を被写体に向けて発信し、反射された当該電波を受信してレンズ173から被写体までの距離を測定する。
The
図2(A)は、撮像装置100を正面(撮像時に被写体に向ける面)からみた場合の外観図である。図示するように、発光装置172とレンズ173は、所定距離Sを隔てて所定の位置に配置されている。なお、所定距離Sは、レンズ173の中心位置Oから発光装置172の中心位置Aまでの距離とする。また、撮像装置100の上部には、上述した撮像シャッター141が設けられる。
FIG. 2A is an external view when the
また、図2(B)は、撮像装置100を裏面(撮像時に手前に向ける面)からみた場合の外観図である。図示するように、撮像装置100の裏面には、上述した操作ボタン142と、ディスプレイ150と、が設けられる。
FIG. 2B is an external view when the
本実施形態が適用された撮像装置100は、以上のようなハードウェア構成からなる。ただし、撮像装置100のハードウェア構成はこれに限定されない。例えば、撮像装置100の撮像機構170は、さらに目で覗いて構図を決めるためなどに使用するファインダー(電子ファインダーではない覗き窓)などを備えていてもよい。
The
図3は、撮像装置100の機能構成図である。図示するように、撮像装置100は、入力受付部101と、表示処理部102と、赤目発生予測部103と、警告部104と、撮像処理部105と、を有する。
FIG. 3 is a functional configuration diagram of the
入力受付部101は、ユーザーからの指示を受け付ける。例えば、入力受付部101は、撮像シャッター141の半押しによって、ピント調整の指示を受け付ける。また、入力受付部101は、撮像シャッター141の長押しによって、撮像の指示を受け付ける。また、入力受付部101は、操作ボタン142を介して、各種設定や決定の指示を受け付ける。
The
表示処理部102は、撮像モードにおいてイメージセンサー174で得られる画像データ(正確には、画像信号から変換されたビデオ信号)を表示し、ディスプレイ150をファインダーとして機能させる。また、表示処理部102は、ユーザーに対して警告やアナウンスを行うためのメッセージや、各種設定画面などをディスプレイ150に表示する。
The
赤目発生予測部103は、撮像画像(表示処理部102が表示している画像データ)に赤目が発生するか否か予測する。ここで、赤目発生予測部103は、撮像モードにおいて、入力受付部101でピント調整の指示を受け付けるタイミング(撮像シャッター141が半押し状態にされるタイミング)で、赤目が発生するか否か予測する。
The red-eye
一般的には、撮像画像の赤目は、発光装置172から発せられた光が被写体(例えば、人や動物)の目に反射して、その反射光がレンズ173に入射する場合に発生する。ただし、強度の弱い反射光がレンズ173に入射しても撮像画像に赤目は発生せず、強度の強い反射光がレンズ173に入射する場合に撮像画像に赤目が発生する。
In general, red eyes in a captured image are generated when light emitted from the
そこで、本発明の赤目発生予測部103は、撮像装置(具体的にはレンズ173)100と被写体(具体的には被写体の目)の間の距離が所定の基準値以上である場合に赤目が発生すると予測し、撮像装置100と被写体の間の距離が所定の基準値未満である場合には赤目は発生しないと予測する。なお、ここで用いる基準値は、実験によって得られた信憑性の高い値を用い、例えば、レンズ173から発光装置172までの距離の20倍とする。
Therefore, the red-eye
別の言い方をすれば、赤目発生予測部103は、発光装置(具体的には発光装置172の中心位置A)172と被写体(具体的には被写体の目の位置B)を結ぶ直線と、被写体とレンズ(具体的にはレンズ173の中心位置O)173を結ぶ直線と、のなす角θが所定の基準角度Rより狭い場合に撮像画像に赤目が発生すると予測し、当該なす角θが所定の基準角度Rより広い場合に撮像画像に赤目が発生しないと予測する。なお、ここで用いる所定の基準角度Rは、撮像装置100と被写体の間の距離がレンズ173から発光装置172までの距離の20倍となるときの値であり、具体的にはtan(R)=(1/20)を満たす値とする。
In other words, the red-eye
すなわち、赤目発生予測部103は、発光装置172と被写体を結ぶ直線と、被写体とレンズ173を結ぶ直線と、のなす角θを算出し、算出したなす角θに基づいて撮像画像に赤目が発生するか否か予測する。
That is, the red-eye
以下に、発光装置172と被写体を結ぶ直線と、被写体とレンズ173を結ぶ直線と、のなす角θを算出する方法について説明する。
Hereinafter, a method for calculating the angle θ formed by the straight line connecting the
図4は、撮像装置100と被写体の位置関係を示す図である。図示するように、撮像装置100に備わるレンズ173の中心位置Oを原点とし、撮像装置100の正面(撮像時に被写体に向ける面)に平行な2つの直交ベクトル(x軸、y軸)が張る平面を「撮像装置側平面」とする。また、レンズ173の中心位置Oを通り「撮像装置側平面」に直交するベクトルをz軸とする。
FIG. 4 is a diagram illustrating the positional relationship between the
このとき、発光装置173は、上述した通り、レンズ172から所定距離Sを隔てた位置に配置され、この発光装置173の位置、すなわち発光装置173の中心位置Aの座標(レンズ172に対する相対位置)は、(p,q,r)と置ける。ただし、S={p2+q2+r2}(1/2)が成立しているものとし、p、q、rは、それぞれ実数とする。なお、発光装置173の中心位置Aの座標は、予め不揮発性メモリー130などのメモリーに格納されており、赤目発生予測部103は、メモリーから読み出すことによって位置Aの座標(p,q,r)を得ることができる。
At this time, as described above, the
それから、赤目発生予測部103は、レンズ173から被写体(目の位置ではなく、被写体面上におけるレンズ173の光軸上の点)までの距離を取得する。具体的には、赤目発生予測部103は、距離測定装置175を用いて、レンズ173から被写体までの距離aを得る。このとき、被写体面上におけるレンズ173の光軸(z軸)上の点の位置O’の座標は(0,0,a)となる。ただしaは、実数とする。
Then, the red-eye
また、位置O’を含み「撮像装置側平面」に平行な平面を「被写体側平面(被写体面)」と呼び、被写体の目の位置Bは、「被写体側平面」上に存在する。このとき、被写体の目の位置Bの座標は、(m,n,a)と置ける。ただし、m、nは、それぞれ実数とする。また、位置O’から被写体の目の位置Bまでの距離をαと置く。 A plane including the position O ′ and parallel to the “imaging device side plane” is referred to as a “subject side plane (subject plane)”, and the eye position B of the subject exists on the “subject side plane”. At this time, the coordinates of the eye position B of the subject can be set as (m, n, a). However, m and n are each real numbers. Further, the distance from the position O ′ to the eye position B of the subject is set to α.
そして、赤目発生予測部103は、被写体の目の位置Bの2次元座標(m、n)を、イメージセンサー174で得られる画像データ(正確には、画像信号から変換されたビデオ信号)を用いて算出する。
Then, the red-eye
図5(A)は、イメージセンサー174で得られる画像データ(撮像画像)の中心位置と画像データ(撮像画像)内における被写体の位置関係を示す図である。
FIG. 5A is a diagram illustrating the positional relationship between the center position of image data (captured image) obtained by the
図示するように、撮像モードにおいて、イメージセンサー174で得られる画像データ(撮像画像)は、表示処理部102によってディスプレイ150に表示される。そして、赤目発生予測部103は、所定の方法によって、画像データ(撮像画像)内における被写体の目の位置B’の位置を検出する。本願発明は、画像データ内における目の位置の検出方法について限定するものではないが、例えば、目の特徴をもつテンプレート画像と比較することによって、目の位置を検出する。それから、赤目発生予測部103は、画像データ(撮像画像)の中心位置O’’を原点(0,0)とし、画像データ(撮像画像)内における被写体の目の位置(中心位置O’’に対する相対位置)B’の座標(m’,n’)を、画素位置(画素数)から求める。具体的には、赤目発生予測部103は、中心位置O’’から目の位置B’までの画素数に、所定の係数(イメージセンサーのサイズ、色ピクセル数、など)を乗じて、位置B’の座標(m’,n’)を算出する。すなわち、m’=(中心位置O’’から目の位置B’までのx軸方向の画素数)×24×103×2832、n’=(中心位置O’’から目の位置B’までのy軸方向の画素数)×24×103×2832、を用いて、位置B’の座標(m’,n’)を算出する。これとともに、赤目発生予測部103は、画像データ(撮像画像)内の中心位置O’’から、画像データ(撮像画像)内における被写体の目の位置B’までの距離βを求める。なお、距離βは、β={m’2+n’2}(1/2)の数式を用いて容易に得ることができる。もちろん、所定の係数(イメージセンサーのサイズ、色ピクセル数、など)を、{(中心位置O’’から目の位置B’までのx軸方向の画素数)2+(中心位置O’’から目の位置B’までのy軸方向の画素数)2}(1/2)に乗じることにより距離βを求めてもよい。
As illustrated, in the imaging mode, image data (captured image) obtained by the
そして、赤目発生予測部103は、被写体と、レンズ173と、イメージセンサー174と、の位置関係に基づき、被写体の目の実際の位置Bの2次元座標(m、n)を算出する。なお、2次元座標(m,n)は、レンズ173の中心位置Oに対する相対位置を表している。
Then, the red-eye
図5(B)は、被写体、レンズ173、イメージセンサー174の位置関係を示す図である。図示するように、被写体の目(位置B)に反射した光は、レンズ173を通り、イメージセンサー174の位置B’に結像する。すなわち、「被写体側平面(被写体面)」の中心位置O’から被写体の目の位置Bまでの距離αは、イメージセンサー174においては距離β(図示する中心位置O’’から位置B’までの距離)に縮小される。この縮小率(β/α)は、レンズ(中心位置O)173からイメージセンサー(中心位置O’’)174までの距離eと、レンズ(中心位置O)173から被写体(中心位置O’)までの距離aと、の比に等しくなる(或いは、比例する)。従って、最も単純な系では、β/α=e/aの関係式が成立する。なお、レンズ(中心位置O)173からイメージセンサー(中心位置O’’)174までの距離eは、予め不揮発性メモリー130などのメモリーに格納されており、赤目発生予測部103は、メモリーから読み出すことによって距離eを得ることができる。
FIG. 5B is a diagram illustrating a positional relationship between the subject, the
そして、赤目発生予測部103は、上記の関係式(β/α=e/a)を用いて、「被写体側平面(被写体面)」の中心位置O’から被写体の目の位置Bまでの距離αを算出する。具体的には、赤目発生予測部103は、β/α=(e/a)×fの関係式に、先に取得(或いは、算出)しておいた、β、e、a、fを代入して、「被写体側平面(被写体面)」の中心位置O’から被写体の目の位置Bまでの距離αを算出する。ここで、fは、設定されているズーム倍率を示す。
Then, the red-eye
それから、赤目発生予測部103は、画像データ(撮像画像)内における被写体の目の位置B’の座標(m’,n’)に、縮小率(β/α)の逆数(α/β)を乗じて、被写体の目の実際の位置Bの2次元座標(m、n)を得る。すなわち、(m,n)=(m’×(α/β),n’×(α/β))の計算式により位置Bの2次元座標(m,n)を得る。ここで、位置Bのz座標は、上述したように、aであることから、位置Bの3次元座標は(m,n,a)となる。
Then, the red-eye
こうして、赤目発生予測部103は、レンズ173の中心位置Oと、発光装置173の中心位置Aと、被写体の目の位置Bと、の位置関係(各座標)を得ることができる。そして、赤目発生予測部103は、O、A、Bの位置関係(3点の座標)から、発光装置172と被写体を結ぶ直線(A−B)と、被写体とレンズ173を結ぶ直線(B−O)と、のなす角θを算出することができる。例えば、赤目発生予測部103は、被写体の目の位置Bから発光装置173の中心位置AまでのベクトルBAと、被写体の目の位置Bからレンズ173の中心位置OまでのベクトルBOと、の内積を求めて、なす角θを算出する。すなわち、BA・BO=|BA|×|BO|×cos(θ)の関係式を用いて、cos(θ)を算出する。ただし、「・」は内積を表し、|BA|={(p−m)2+(q−n)2+(r−a)2}(1/2)、|BO|={(−m)2+(−n)2+(−a)2}(1/2)の数式により求めることができる。なお、赤目発生予測部103は、算出したcos(θ)を、tan(θ)に変換しておく。
In this way, the red-eye
以上のように、赤目発生予測部103は、発光装置172と被写体を結ぶ直線と、被写体とレンズ173を結ぶ直線と、のなす角θを算出することができる。そして、赤目発生予測部103は、算出したなす角θ(具体的にはtan(θ))に基づいて、撮像画像に赤目が発生するか否か判定する。具体的には、赤目発生予測部103は、算出したtan(θ)が、上述した所定の基準値(1/20)以上である場合、すなわち、tan(θ)≧(1/20)である場合には、なす角θが所定の基準角度R以上となるため、撮像画像に赤目は発生しないと判定する。一方、赤目発生予測部103は、算出したtan(θ)が、上述した所定の基準値(1/20)未満である場合、すなわち、tan(θ)<(1/20)である場合には、なす角θが所定の基準角度Rより狭くなるため、撮像画像に赤目が発生すると判定する。
As described above, the red-eye
また、赤目発生予測部103は、撮像画像に赤目が発生するか否かについての予測結果を、警告部104に通知する。
In addition, the red-eye
図3に戻り、警告部104は、撮像画像に赤目が発生すると予測された場合に警告を行う。具体的には、警告部104は、撮像画像に赤目が発生すること(予測結果)が赤目発生予測部103から通知された場合に、表示処理部102を介して、赤目が発生する旨のメッセージを表示する。なお、警告部104が行う警告方法は、これに限定されず、例えば、撮像シャッター141をユーザーが押せないようにロックしてもよいし、音声によって赤目が発生することをユーザーに通知するようにしてもよい。
Returning to FIG. 3, the
撮像処理部105は、撮像機構170を制御して、被写体の撮像を行う。具体的には、撮像処理部105は、撮像モードにおいて、入力受付部101で撮像の指示を受け付けるタイミング(撮像シャッター141が長押し状態にされるタイミング)で、被写体の撮像を行う。すなわち、撮像処理部105は、撮像モードにおいてイメージセンサー174で得られる画像データ(撮像画像)を、入力受付部101で撮像の指示を受け付けるタイミングで、所定のメモリー(例えば、不揮発性メモリー130)に格納する。
The
本実施形態が適用された撮像装置100は、以上のような構成からなる。ただし、撮像装置100の構成はこれに限定されない。
The
また、上記した各構成要素は、撮像装置100の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。撮像装置100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
In addition, each of the above-described constituent elements is classified according to main processing contents in order to facilitate understanding of the configuration of the
次に、上記構成からなる撮像装置100の特徴的な動作について説明する。
Next, a characteristic operation of the
<撮像処理>
図6は、本実施形態の撮像装置100で実行される撮像処理の一例を説明するためのフローチャートである。
<Imaging processing>
FIG. 6 is a flowchart for explaining an example of an imaging process executed by the
撮像装置100は、所定のタイミングで本フローを開始する。例えば、撮像モードに移行する指示がされるタイミングで本フローを開始する。
The
本フローを開始すると、撮像装置100の入力受付部101は、撮像処理の要求が有るか否か判別する(ステップS101)。具体的には、入力受付部101は、撮像シャッター141が半押しの状態にされるまで待機し(ステップS101;No)、撮像シャッター141が半押しの状態にされると、撮像処理の要求がされたと判定し(ステップS101;Yes)、処理をステップS102に移行する。なお、撮像シャッター141が半押し状態にされることによって、入力受付部101ではピント調整の指示がされたと判定し、撮像処理部105はピント調整などの制御を行う。
When this flow is started, the
処理がステップS102に移行すると、赤目発生予測部103は、レンズ173と発光装置172との距離S、すなわち、レンズ173に対する発光装置172の相対的な位置Aの座標(p,q,r)を所定のメモリーから読み出す(ステップS102)。
When the process proceeds to step S102, the red-eye
次に、赤目発生予測部103は、撮像装置100から被写体までの距離aを取得する(ステップS103)。具体的には、赤目発生予測部103は、距離測定装置175から所定の電波(超音波、赤外線など)を被写体に向けて発信し、反射された当該電波を受信してレンズ173から被写体(すなわち、「被写体側平面(被写体面)」におけるレンズ173の光軸上の点)までの距離aを取得する。
Next, the red-eye
それから、赤目発生予測部103は、発光装置172と被写体を結ぶ直線(A−B)と、被写体とレンズ173を結ぶ直線(B−O)と、のなす角θを算出する(ステップS104)。
Then, the red-eye
具体的には、赤目発生予測部103は、レンズ173の中心位置Oと、発光装置173の中心位置Aと、被写体の目の位置Bと、の位置関係(座標)を用いて、なす角θを算出する。
Specifically, the red-eye
そのために、赤目発生予測部103は、レンズ173の中心位置Oの座標を、原点(0,0,0)とし、発光装置173の中心位置Aの座標を、ステップS102で読み出された(p,q,r)とする。
For this purpose, the red-eye
また、赤目発生予測部103は、被写体の目の位置Bの座標を算出するために、レンズ(中心位置O)173からイメージセンサー(中心位置O’’)174までの距離eをメモリーから読み出し、ユーザーによって指定されているズーム倍率fを特定する。さらに、赤目発生予測部103は、イメージセンサー174で得られる撮像画像を用いて、撮像画像の中心位置O’’から撮像画像内における被写体の目の位置B’までの画素数(x軸方向とy軸方向の各画素数)をカウントする。それから、赤目発生予測部103は、上述した通り、「m’=(中心位置O’’から目の位置B’までのx軸方向の画素数)×24×103×2832」、「n’=(中心位置O’’から目の位置B’までのy軸方向の画素数)×24×103×2832」、「β/α=(e/a)×f」、「m=m’×(α/β)」、「n=n’×(α/β)」の計算式を用いて、被写体の目について実際の位置Bの座標(m,n,a)を算出する。参考までに、被写体の目の位置Bの座標(m,n,a)を算出するために用いる計算式をまとめると、「m=(中心位置O’’から目の位置B’までのx軸方向の画素数)×24×103×2832×(a/e)/f」、「n=(中心位置O’’から目の位置B’までのy軸方向の画素数)×24×103×2832×(a/e)/f)」となる。
The red-eye
そして、赤目発生予測部103は、算出したO、A、Bの3点の座標から、発光装置172と被写体を結ぶ直線(A−B)と、被写体とレンズ173を結ぶ直線(B−O)と、のなす角θを算出する。すなわち、上述した通り、赤目発生予測部103は、BA・BO=|BA|×|BO|×cos(θ)の関係式を用いて、cos(θ)、及び、tan(θ)を算出する。
Then, the red-eye
その後、赤目発生予測部103は、ステップS104で算出されたなす角θ(具体的にはtan(θ))に基づいて、撮像画像に赤目が発生するか否か判別する(ステップS105)。具体的には、赤目発生予測部103は、ステップS104で算出されたtan(θ)が、上述した所定の基準値(1/20)以上である場合、すなわち、tan(θ)≧(1/20)である場合に、なす角θが所定の基準角度R以上とみなし、撮像画像に赤目は発生しないと判定する。また、赤目発生予測部103は、ステップS104で撮像画像内から赤目を検出できなかった場合(被写体が十分に遠い場合も含む)においても、撮像画像に赤目は発生しないと判定する。一方、赤目発生予測部103は、ステップS104で算出されたtan(θ)が、上述した所定の基準値(1/20)未満である場合、すなわち、tan(θ)<(1/20)である場合に、なす角θが所定の基準角度Rより狭くなるとみなし、撮像画像に赤目が発生すると判定する。
Thereafter, the red-eye
ここで、赤目発生予測部103は、撮像画像に赤目が発生すると判定された場合には(ステップS105;Yes)、その判定結果(予測結果)を警告部104に通知して、処理をステップS106に移行する。
Here, when it is determined that red eyes are generated in the captured image (step S105; Yes), the red-eye
処理がステップS106に移行すると、警告部104は、表示処理部102を介して、赤目が発生する旨のメッセージを表示する。このとき、例えば、表示処理部102は、ディスプレイ150に、「赤目が発生する可能性があります。撮影をこのまま続行しますか?」などのメッセージを表示する。
When the process proceeds to step S <b> 106, the
それから、警告部104は、処理をステップS107に移行する。
Then, the
一方、ステップS105において、赤目発生予測部103は、撮像画像に赤目は発生しないと判定された場合には(ステップS105;No)、ステップS106の警告をせずに、処理をステップS107に移行する。 On the other hand, when it is determined in step S105 that red-eye does not occur in the captured image (step S105; No), the process proceeds to step S107 without warning in step S106. .
処理がステップS107に移行すると、撮像処理部105は、入力受付部101を介して撮像の指示がされたか否か判別する(ステップS107)。具体的には、撮像処理部105は、撮像シャッター141が長押しの状態にされると、撮像の指示がされたと判定し(ステップS107;Yes)、処理をステップS108に移行する。
When the process proceeds to step S107, the
処理がステップS108に移行すると、撮像処理部105は、撮像を行う(ステップS108)。具体的には、撮像処理部105は、イメージセンサー174で得られる画像データ(撮像画像)を、所定のメモリー(例えば、不揮発性メモリー130)に格納する。そして、撮像後、撮像処理部105は、本フローを終了する。
When the process proceeds to step S108, the
一方、ステップs107において、撮像処理部105は、撮像シャッター141が押されていない状態に戻されると、撮像中止の指示がされたと判定し(ステップS107;No)、本フローを終了する。
On the other hand, in step s107, when the
以上の撮像処理を行うことにより、本実施形態の撮像装置100は、被写体(例えば、人や動物)の目に反射してレンズ173に入射する光(フラッシュ)の強度(なす角θに基づくデータ)に応じて、赤目の発生を予測している。そのため、簡易な方法でありながら、従来よりも精度良く赤目の発生を予測できる。
By performing the above-described imaging processing, the
なお、上記した各フローの各処理単位は、撮像装置100を理解容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。撮像装置100が行う処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。
Note that each processing unit of each flow described above is divided according to main processing contents in order to make the
また、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。 Moreover, said embodiment intends to illustrate the summary of this invention, and does not limit this invention. Many alternatives, modifications, and variations will be apparent to those skilled in the art.
例えば、上記の実施形態では、赤目発生予測部103は、レンズ173の中心位置Oと、発光装置173の中心位置Aと、被写体の目の位置Bと、の3次元座標(位置関係)を用いて、なす角θ(発光装置172と被写体を結ぶ直線と、被写体とレンズ173を結ぶ直線と、のなす角)を算出している。しかし、本発明は、これに限定されず、他の方法によって、なす角θを算出するようにしてもよい。例えば、赤目発生予測部103は、レンズ173の中心位置Oと、発光装置173の中心位置Aと、被写体の目の位置Bと、の2次元座標を用いて、なす角θを算出してもよい。もちろん、この場合には、なす角θの演算過程において、所定の近似などが必要となる。
For example, in the above embodiment, the red-eye
また、図7は、撮像装置100の変形例を示す図である。発光装置172が配置される位置は、図2(A)に示す位置に限定されず、図7に示すように、レンズ173の上部方向に配置されていてもよい。つまり、本発明は、発光装置172が配置される位置について限定しない。そして、撮像装置100は、レンズ173から発光装置172までの距離S、すなわち、レンズ173に対する発光装置172の相対位置A(座標)を予めメモリーに格納しておけばよい。
FIG. 7 is a diagram illustrating a modified example of the
100・・・撮像装置、101・・・入力受付部、102・・・表示処理部、103・・・赤目発生予測部、104・・・警告部、105・・・撮像処理部、110・・・CPU、120・・・揮発性メモリー、130・・・不揮発性メモリー、140・・・入力装置、141・・・撮像シャッター、142・・・操作ボタン、150・・・ディスプレイ、160・・・インターフェイス、170・・・撮像機構、171・・・制御回路、172・・・発光装置、173・・・レンズ、174・・・イメージセンサー、175・・・距離測定装置
DESCRIPTION OF
Claims (8)
レンズを介して被写体を撮像した撮像画像を出力するイメージセンサーと、
前記発光部と前記被写体を結ぶ直線と、当該被写体と前記レンズを結ぶ直線と、のなす角を算出し、当該なす角に基づいて前記撮像画像に赤目が発生するか否か予測する赤目発生予測部と、
前記赤目発生予測部で赤目が発生すると予測された場合に警告を行う警告部と、を備え、
前記赤目発生予測部は、前記撮像画像内における目の位置に基づいて算出した、前記被写体を含む被写体面における前記目の座標に基づいて前記なす角を算出し、
前記赤目発生予測部は、
前記レンズから前記被写体面までの第1の距離と、前記イメージセンサーから前記レンズまでの第2の距離と、前記レンズの所定の位置を示す第1の座標に基づいて決まる、前記発光部の所定の位置を示す座標である第2の座標と、を取得し、
撮像画像の中心位置を示す第3の座標に基づいて決まる、当該撮像画像内における前記被写体の位置を示す第4の座標を算出し、
前記第1の距離と、前記第2の距離と、前記第3の座標と前記第4の座標との間の第3の距離と、から定まる、前記被写体面における前記レンズの光軸上の点から前記被写体の位置までの第4の距離を算出し、
前記被写体面における前記レンズの光軸上の点の座標に基づいて決まる、前記被写体の位置を示す第5の座標を、前記第2の座標と、前記第3の距離と、前記第4の距離と、に基づき算出し、
前記第1の座標と、前記第5の座標と、前記第2の座標と、から前記なす角を算出する、
ことを特徴とする赤目判定装置。 A light emitting unit;
An image sensor that outputs a captured image obtained by imaging a subject via a lens;
A red-eye occurrence prediction that calculates an angle formed by a straight line connecting the light emitting unit and the subject and a straight line connecting the subject and the lens, and predicts whether or not red-eye occurs in the captured image based on the formed angle. And
A warning unit that issues a warning when red-eye occurrence is predicted to occur in the red-eye occurrence prediction unit,
The red-eye occurrence prediction unit calculates the angle formed based on the coordinates of the eye on the subject surface including the subject, calculated based on the position of the eye in the captured image ,
The red-eye occurrence prediction unit
A predetermined distance of the light emitting unit determined based on a first distance from the lens to the subject surface, a second distance from the image sensor to the lens, and a first coordinate indicating a predetermined position of the lens; A second coordinate which is a coordinate indicating the position of
Calculating a fourth coordinate indicating the position of the subject in the captured image, determined based on the third coordinate indicating the center position of the captured image;
A point on the optical axis of the lens on the object plane determined from the first distance, the second distance, and a third distance between the third coordinate and the fourth coordinate. A fourth distance from the subject to the subject position,
The fifth coordinate indicating the position of the subject, the second coordinate, the third distance, and the fourth distance determined based on the coordinates of a point on the optical axis of the lens on the subject surface. And calculated based on
Calculating the angle formed from the first coordinate, the fifth coordinate, and the second coordinate;
A red-eye determination device characterized by that.
前記赤目発生予測部は、
前記なす角が所定の角度より狭い場合に、撮像画像に赤目が発生すると予測する、
ことを特徴とする赤目判定装置。 The red-eye determination device according to claim 1,
The red-eye occurrence prediction unit
Predicting that red-eye occurs in the captured image when the angle formed is narrower than a predetermined angle;
A red-eye determination device characterized by that.
前記赤目発生予測部は、
前記第4の距離=前記第3の距離×(前記第1の距離/前記第2の距離)/前記イメージセンサーにおけるズーム倍率の関係式を用いて、前記第4の距離を算出する、
ことを特徴とする赤目判定装置。 The red-eye determination device according to claim 1 or 2 ,
The red-eye occurrence prediction unit
The fourth distance is calculated using a relational expression of the fourth distance = the third distance × (the first distance / the second distance) / the zoom magnification in the image sensor.
A red-eye determination device characterized by that.
前記警告部は、
撮像シャッターが半押し状態にされるタイミングで前記警告を行う、
ことを特徴とする赤目判定装置。 The red-eye determination device according to any one of claims 1 to 3 ,
The warning part is
The warning is given when the imaging shutter is half pressed.
A red-eye determination device characterized by that.
前記発光部と前記被写体を結ぶ直線と、当該被写体と前記レンズを結ぶ直線と、のなす角を算出し、当該なす角に基づいて前記撮像画像に赤目が発生するか否か予測する赤目発生予測ステップと、
前記赤目発生予測ステップで赤目が発生すると予測された場合に警告を行う警告ステップと、
を行い、
前記赤目発生予測ステップでは、前記撮像画像内における目の位置に基づいて算出した、前記被写体を含む被写体面における前記目の座標に基づいて前記なす角を算出し、
前記赤目発生予測ステップでは、
前記レンズから前記被写体面までの第1の距離と、前記イメージセンサーから前記レンズまでの第2の距離と、前記レンズの所定の位置を示す第1の座標に基づいて決まる、前記発光部の所定の位置を示す座標である第2の座標と、を取得し、
撮像画像の中心位置を示す第3の座標に基づいて決まる、当該撮像画像内における前記被写体の位置を示す第4の座標を算出し、
前記第1の距離と、前記第2の距離と、前記第3の座標と前記第4の座標との間の第3の距離と、から定まる、前記被写体面における前記レンズの光軸上の点から前記被写体の位置までの第4の距離を算出し、
前記被写体面における前記レンズの光軸上の点の座標に基づいて決まる、前記被写体の位置を示す第5の座標を、前記第2の座標と、前記第3の距離と、前記第4の距離と、に基づき算出し、
前記第1の座標と、前記第5の座標と、前記第2の座標と、から前記なす角を算出する、
ことを特徴とする赤目判定方法。 A red-eye determination method in an apparatus comprising: a light emitting unit; and an image sensor that outputs a captured image obtained by imaging a subject via a lens,
A red-eye occurrence prediction that calculates an angle formed by a straight line connecting the light emitting unit and the subject and a straight line connecting the subject and the lens, and predicts whether or not red-eye occurs in the captured image based on the formed angle. Steps,
A warning step for giving a warning when red-eye is predicted to occur in the red-eye occurrence prediction step;
And
In the red-eye occurrence prediction step, the angle formed based on the coordinates of the eye on the subject surface including the subject, calculated based on the position of the eye in the captured image ,
In the red-eye occurrence prediction step,
A predetermined distance of the light emitting unit determined based on a first distance from the lens to the subject surface, a second distance from the image sensor to the lens, and a first coordinate indicating a predetermined position of the lens; A second coordinate which is a coordinate indicating the position of
Calculating a fourth coordinate indicating the position of the subject in the captured image, determined based on the third coordinate indicating the center position of the captured image;
A point on the optical axis of the lens on the object plane determined from the first distance, the second distance, and a third distance between the third coordinate and the fourth coordinate. A fourth distance from the subject to the subject position,
The fifth coordinate indicating the position of the subject, the second coordinate, the third distance, and the fourth distance determined based on the coordinates of a point on the optical axis of the lens on the subject surface. And calculated based on
Calculating the angle formed from the first coordinate, the fifth coordinate, and the second coordinate;
A red-eye determination method characterized by the above.
前記赤目発生予測ステップでは、
前記なす角が所定の角度より狭い場合に、撮像画像に赤目が発生すると予測する、
ことを特徴とする赤目判定方法。 The red-eye determination method according to claim 5 ,
In the red-eye occurrence prediction step,
Predicting that red-eye occurs in the captured image when the angle formed is narrower than a predetermined angle;
A red-eye determination method characterized by the above.
前記赤目発生予測ステップでは、
前記第4の距離=前記第3の距離×(前記第1の距離/前記第2の距離)/前記イメージセンサーにおけるズーム倍率の関係式を用いて、前記第4の距離を算出する、
ことを特徴とする赤目判定方法。 The red-eye determination method according to claim 5 or 6 ,
In the red-eye occurrence prediction step,
The fourth distance is calculated using a relational expression of the fourth distance = the third distance × (the first distance / the second distance) / the zoom magnification in the image sensor.
A red-eye determination method characterized by the above.
前記警告ステップでは、
撮像シャッターが半押し状態にされるタイミングで前記警告を行う、
ことを特徴とする赤目判定方法。 The red-eye determination method according to any one of claims 5 to 7 ,
In the warning step,
The warning is given when the imaging shutter is half pressed.
A red-eye determination method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010120091A JP5604980B2 (en) | 2010-05-26 | 2010-05-26 | Red-eye determination device and red-eye determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010120091A JP5604980B2 (en) | 2010-05-26 | 2010-05-26 | Red-eye determination device and red-eye determination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011250055A JP2011250055A (en) | 2011-12-08 |
JP5604980B2 true JP5604980B2 (en) | 2014-10-15 |
Family
ID=45414788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010120091A Expired - Fee Related JP5604980B2 (en) | 2010-05-26 | 2010-05-26 | Red-eye determination device and red-eye determination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5604980B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02306228A (en) * | 1989-05-22 | 1990-12-19 | Minolta Camera Co Ltd | Camera recording information in external memory device |
JP2839002B2 (en) * | 1996-03-25 | 1998-12-16 | 株式会社ニコン | camera |
-
2010
- 2010-05-26 JP JP2010120091A patent/JP5604980B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011250055A (en) | 2011-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3248374B1 (en) | Method and apparatus for multiple technology depth map acquisition and fusion | |
JP6456156B2 (en) | Normal line information generating apparatus, imaging apparatus, normal line information generating method, and normal line information generating program | |
JP6512810B2 (en) | Image pickup apparatus, control method and program | |
JP6786225B2 (en) | Image processing equipment, imaging equipment and image processing programs | |
JP5843454B2 (en) | Image processing apparatus, image processing method, and program | |
US11275230B2 (en) | Detection apparatus, detection method, detection program, and imaging apparatus | |
JP5246078B2 (en) | Object location program and camera | |
JP2011191568A (en) | Imaging device, display method and program | |
JP2006279546A (en) | Electronic camera, image processing program, and image processing method | |
JP6357646B2 (en) | Imaging device | |
JP6700818B2 (en) | Image processing device, imaging device, and image processing method | |
JP6564284B2 (en) | Image processing apparatus and image processing method | |
JP6326631B2 (en) | Imaging device | |
EP2597863A2 (en) | Digital Photographing Apparatus and Control Method Thereof | |
US9591213B2 (en) | Electronic device, method and storage medium for generating an image | |
US8179431B2 (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP6346484B2 (en) | Image processing apparatus and control method thereof | |
JP2020187065A (en) | Electronic device and control method thereof, and program | |
JP7106259B2 (en) | Image processing device, imaging device, and image processing method | |
JP2017135528A (en) | Image processing device, imaging apparatus and image processing program | |
JP5604980B2 (en) | Red-eye determination device and red-eye determination method | |
US20190394394A1 (en) | Image processing device, image processing method, and image processing program | |
CN110021044B (en) | Method for calculating coordinates of shot object by using double-fisheye image and image acquisition device | |
TW201642008A (en) | Image capturing device and dynamic focus method thereof | |
WO2017013873A1 (en) | Dimension measurement device, dimension measurement system, and dimension measurement method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140508 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140729 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140811 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5604980 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |