JP5604980B2 - Red-eye determination device and red-eye determination method - Google Patents

Red-eye determination device and red-eye determination method Download PDF

Info

Publication number
JP5604980B2
JP5604980B2 JP2010120091A JP2010120091A JP5604980B2 JP 5604980 B2 JP5604980 B2 JP 5604980B2 JP 2010120091 A JP2010120091 A JP 2010120091A JP 2010120091 A JP2010120091 A JP 2010120091A JP 5604980 B2 JP5604980 B2 JP 5604980B2
Authority
JP
Japan
Prior art keywords
red
eye
distance
subject
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010120091A
Other languages
Japanese (ja)
Other versions
JP2011250055A (en
Inventor
正年 松平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010120091A priority Critical patent/JP5604980B2/en
Publication of JP2011250055A publication Critical patent/JP2011250055A/en
Application granted granted Critical
Publication of JP5604980B2 publication Critical patent/JP5604980B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、赤目判定装置、および、赤目判定方法に関する。   The present invention relates to a red-eye determination device and a red-eye determination method.

カメラなどの撮像装置によって撮像された画像に赤目が発生することがある。従来から、撮像画像に赤目が発生する可能性を予測し、赤目が発生すると予測される場合には、フラッシュライトを点灯せずに撮像する技術がある。   Red eyes may occur in an image captured by an imaging device such as a camera. Conventionally, there is a technique for predicting the possibility of red eyes occurring in a captured image, and imaging without turning on a flashlight when red eyes are predicted to occur.

例えば、特許文献1では、撮像に先立ち、被写体の輝度や、カメラから被写体までの距離を用いて、撮像画像に赤目が発生する可能性について予測している。このような技術を用いれば、赤目の発生を簡易に予測することができる。   For example, Patent Document 1 predicts the possibility of red eyes occurring in a captured image using the luminance of the subject and the distance from the camera to the subject prior to imaging. Using such a technique, it is possible to easily predict the occurrence of red eyes.

特開2009−157004号JP 2009-157004 A

しかし、実際には、被写体の輝度や、カメラから被写体までの距離といった情報から、精度良く赤目の発生を予測できない場合がある。   However, in reality, the occurrence of red eyes may not be accurately predicted from information such as the brightness of the subject and the distance from the camera to the subject.

本発明は、撮像に先だち、簡易な方法によって従来よりも精度良く赤目の発生を予測する技術を提供することを目的とする。   It is an object of the present invention to provide a technique for predicting the occurrence of red eyes with a simple method prior to imaging.

上記の課題を解決する本発明の一態様は、発光部と、レンズを介して被写体を撮像した撮像画像を出力するイメージセンサーと、前記発光部と前記被写体を結ぶ直線と、当該被写体と前記レンズを結ぶ直線と、のなす角を算出し、当該なす角に基づいて前記撮像画像に赤目が発生するか否か予測する赤目発生予測部と、前記赤目発生予測部で赤目が発生すると予測された場合に警告を行う警告部と、を備え、前記赤目発生予測部は、前記撮像画像内における目の位置に基づいて算出した、前記被写体を含む被写体面における前記目の座標に基づいて前記なす角を算出し、前記赤目発生予測部は、前記レンズから前記被写体面までの第1の距離と、前記イメージセンサーから前記レンズまでの第2の距離と、前記レンズの所定の位置を示す第1の座標に基づいて決まる、前記発光部の所定の位置を示す座標である第2の座標と、を取得し、撮像画像の中心位置を示す第3の座標に基づいて決まる、当該撮像画像内における前記被写体の位置を示す第4の座標を算出し、前記第1の距離と、前記第2の距離と、前記第3の座標と前記第4の座標との間の第3の距離と、から定まる、前記被写体面における前記レンズの光軸上の点から前記被写体の位置までの第4の距離を算出し、前記被写体面における前記レンズの光軸上の点の座標に基づいて決まる、前記被写体の位置を示す第5の座標を、前記第2の座標と、前記第3の距離と、前記第4の距離と、に基づき算出し、前記第1の座標と、前記第5の座標と、前記第2の座標と、から前記なす角を算出する、ことを特徴とする赤目判定装置である。  One embodiment of the present invention that solves the above problems includes a light emitting unit, an image sensor that outputs a captured image obtained by imaging a subject via a lens, a straight line that connects the light emitting unit and the subject, the subject, and the lens. It is predicted that a red eye will be generated in the red-eye occurrence prediction unit, and a red-eye occurrence prediction unit that calculates whether or not red-eye occurs in the captured image based on the angle formed by the straight line connecting A warning unit that issues a warning when the angle is formed based on the coordinates of the eye on the subject surface including the subject, the red-eye occurrence prediction unit calculated based on the position of the eye in the captured image The red-eye occurrence prediction unit calculates a first distance from the lens to the subject surface, a second distance from the image sensor to the lens, and a first position indicating the predetermined position of the lens. A second coordinate which is a coordinate indicating a predetermined position of the light emitting unit, which is determined based on the coordinates, and is determined based on a third coordinate indicating the center position of the captured image. A fourth coordinate indicating the position of the subject is calculated, and is determined from the first distance, the second distance, and a third distance between the third coordinate and the fourth coordinate. Calculating a fourth distance from a point on the optical axis of the lens on the subject surface to the position of the subject, and determining the fourth object distance based on the coordinates of the point on the optical axis of the lens on the subject surface. A fifth coordinate indicating a position is calculated based on the second coordinate, the third distance, and the fourth distance, and the first coordinate, the fifth coordinate, A red-eye determination characterized by calculating the angle formed from the second coordinates. It is the location.
前記赤目発生予測部は、前記なす角が所定の角度より狭い場合に、撮像画像に赤目が発生すると予測する、ことを特徴としてもよい。  The red-eye occurrence prediction unit may predict that red-eye occurs in the captured image when the angle formed is narrower than a predetermined angle.
前記赤目発生予測部は、前記第4の距離=前記第3の距離×(前記第1の距離/前記第2の距離)/前記イメージセンサーにおけるズーム倍率の関係式を用いて、前記第4の距離を算出する、ことを特徴としてもよい。  The red-eye occurrence prediction unit uses the relational expression of the fourth distance = the third distance × (the first distance / the second distance) / the zoom magnification in the image sensor to calculate the fourth distance. The distance may be calculated.
前記警告部は、撮像シャッターが半押し状態にされるタイミングで前記警告を行う、ことを特徴としてもよい。  The warning unit may perform the warning at a timing when the imaging shutter is half-pressed.
上記の課題を解決する本発明の他の態様は、発光部と、レンズを介して被写体を撮像した撮像画像を出力するイメージセンサーと、を備える装置における赤目判定方法であって、前記発光部と前記被写体を結ぶ直線と、当該被写体と前記レンズを結ぶ直線と、のなす角を算出し、当該なす角に基づいて前記撮像画像に赤目が発生するか否か予測する赤目発生予測ステップと、前記赤目発生予測ステップで赤目が発生すると予測された場合に警告を行う警告ステップと、を行い、前記赤目発生予測ステップでは、前記撮像画像内における目の位置に基づいて算出した、前記被写体を含む被写体面における前記目の座標に基づいて前記なす角を算出し、前記赤目発生予測ステップでは、前記レンズから前記被写体面までの第1の距離と、前記イメージセンサーから前記レンズまでの第2の距離と、前記レンズの所定の位置を示す第1の座標に基づいて決まる、前記発光部の所定の位置を示す座標である第2の座標と、を取得し、撮像画像の中心位置を示す第3の座標に基づいて決まる、当該撮像画像内における前記被写体の位置を示す第4の座標を算出し、前記第1の距離と、前記第2の距離と、前記第3の座標と前記第4の座標との間の第3の距離と、から定まる、前記被写体面における前記レンズの光軸上の点から前記被写体の位置までの第4の距離を算出し、前記被写体面における前記レンズの光軸上の点の座標に基づいて決まる、前記被写体の位置を示す第5の座標を、前記第2の座標と、前記第3の距離と、前記第4の距離と、に基づき算出し、前記第1の座標と、前記第5の座標と、前記第2の座標と、から前記なす角を算出する、ことを特徴とする。  Another aspect of the present invention that solves the above-described problem is a red-eye determination method in an apparatus that includes a light-emitting unit and an image sensor that outputs a captured image obtained by imaging a subject via a lens. A red eye occurrence prediction step of calculating an angle formed by a straight line connecting the subject and a straight line connecting the subject and the lens, and predicting whether or not a red eye is generated in the captured image based on the formed angle; A warning step for giving a warning when red-eye occurrence is predicted in the red-eye occurrence prediction step, and the subject including the subject calculated based on the position of the eye in the captured image in the red-eye occurrence prediction step The angle formed is calculated based on the coordinates of the eye on the surface, and the red eye occurrence prediction step includes a first distance from the lens to the subject surface, and the image A second distance from the disensor to the lens, and a second coordinate that is a coordinate indicating the predetermined position of the light emitting unit, which is determined based on the first coordinate indicating the predetermined position of the lens. Calculating a fourth coordinate indicating the position of the subject in the captured image, which is determined based on the third coordinate indicating the center position of the captured image, and the first distance, the second distance, A fourth distance from a point on the optical axis of the lens on the object plane to the position of the subject is determined from a third distance between the third coordinate and the fourth coordinate. The fifth coordinate indicating the position of the subject, the second coordinate, the third distance, and the fourth distance determined based on the coordinates of the point on the optical axis of the lens on the subject surface. Distance based on the first coordinate and the fifth coordinate Calculating the coordinates, and the second coordinates, the angle from, characterized in that.
前記赤目発生予測ステップでは、前記なす角が所定の角度より狭い場合に、撮像画像に赤目が発生すると予測する、ことを特徴としてもよい。  In the red-eye occurrence prediction step, when the formed angle is narrower than a predetermined angle, it is predicted that red-eye is generated in the captured image.
前記赤目発生予測ステップでは、前記第4の距離=前記第3の距離×(前記第1の距離/前記第2の距離)/前記イメージセンサーにおけるズーム倍率の関係式を用いて、前記第4の距離を算出する、ことを特徴としてもよい。  In the red-eye occurrence predicting step, the fourth distance = the third distance × (the first distance / the second distance) / the zoom magnification ratio in the image sensor is used to calculate the fourth distance. The distance may be calculated.
前記警告ステップでは、撮像シャッターが半押し状態にされるタイミングで前記警告を行う、ことを特徴としてもよい。  In the warning step, the warning may be performed when the imaging shutter is half-pressed.

撮像装置100のハードウェア構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of the imaging apparatus 100. FIG. (A)本発明の撮像装置100を正面からみた場合の外観例を示す図である。(B)撮像装置100を裏面からみた場合の外観例を示す図である。(A) It is a figure which shows the example of an external appearance at the time of seeing the imaging device 100 of this invention from the front. (B) It is a figure which shows the example of an external appearance at the time of seeing the imaging device 100 from the back surface. 撮像装置100の機能構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a functional configuration of the imaging apparatus 100. FIG. 撮像装置100と被写体の位置関係を示す図である。2 is a diagram illustrating a positional relationship between the imaging apparatus 100 and a subject. FIG. (A)撮像画像の中心位置と撮像画像内における被写体の位置関係を示す図である。(B)被写体、レンズ173、イメージセンサー174の位置関係を示す図である。(A) It is a figure which shows the positional relationship of the to-be-photographed object in the captured image and the center position of a captured image. (B) It is a figure which shows the positional relationship of a to-be-photographed object, the lens 173, and the image sensor 174. FIG. 撮像処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of an imaging process. 撮像装置100の変形例を示す図である。FIG. 11 is a diagram illustrating a modification of the imaging apparatus 100.

以下、本発明の実施形態の一例を図面を参照して説明する。   Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.

本発明の一実施形態が適用された撮像装置100は、デジタルカメラなどの一般的なカメラとして機能する。また、撮像装置100は、撮像に先だって、撮像画像に赤目が発生するか否か予測し、赤目が発生すると予測される場合に警告を行う機能を有する。   The imaging apparatus 100 to which an embodiment of the present invention is applied functions as a general camera such as a digital camera. Further, the imaging apparatus 100 has a function of predicting whether or not red eyes will occur in the captured image prior to imaging, and performing a warning when it is predicted that red eyes will occur.

図1は、本発明の一実施形態が適用された撮像装置100のハードウェア構成の一例を示すブロック図である。図示するように、撮像装置100は、CPU(Central Processing Unit)110と、揮発性メモリー120と、不揮発性メモリー130と、入力装置140と、ディスプレイ150と、インターフェイス160と、撮像機構170と、を備える。   FIG. 1 is a block diagram illustrating an example of a hardware configuration of an imaging apparatus 100 to which an embodiment of the present invention is applied. As illustrated, the imaging apparatus 100 includes a CPU (Central Processing Unit) 110, a volatile memory 120, a nonvolatile memory 130, an input device 140, a display 150, an interface 160, and an imaging mechanism 170. Prepare.

CPU110は、他のユニットを制御して撮像装置100の各種機能を実現する演算装置である。CPU110は、不揮発性メモリー130などの記憶媒体に格納された所定のプログラムを揮発性メモリー120にロードして実行することにより各種機能を実現する。   The CPU 110 is an arithmetic device that controls various units to realize various functions of the imaging device 100. The CPU 110 implements various functions by loading a predetermined program stored in a storage medium such as the nonvolatile memory 130 into the volatile memory 120 and executing it.

揮発性メモリー120は、例えば、RAM(Random Access Memory)等の揮発性の記憶媒体で構成され、各種プログラム、データなどを一時的に格納し、CPU110による演算時のワークメモリーとして使用される。   The volatile memory 120 is configured by a volatile storage medium such as a RAM (Random Access Memory), for example, temporarily stores various programs and data, and is used as a work memory when the CPU 110 performs calculations.

不揮発性メモリー130は、FlashROM等の不揮発性の記憶媒体で構成され、各種プログラムを格納する。例えば、不揮発性メモリー130は、被写体を撮像するためのプログラムや、撮像時に用いる各種既定値などを格納する。また、不揮発性メモリー130には、SDカードなどの外部メモリーも含まれ、撮像画像が格納される。   The nonvolatile memory 130 is composed of a nonvolatile storage medium such as FlashROM, and stores various programs. For example, the nonvolatile memory 130 stores a program for imaging a subject, various default values used at the time of imaging, and the like. The non-volatile memory 130 also includes an external memory such as an SD card, and stores captured images.

入力装置140は、撮像を指示するボタン(以下では「撮像シャッター」とよぶ)や、各種設定や決定を指示するボタン群(以下では「操作ボタン」とよぶ)などから構成される。入力装置140は、撮像シャッターや操作ボタンを介して、ユーザーからの指示を受け付ける。   The input device 140 includes buttons for instructing imaging (hereinafter referred to as “imaging shutter”), a group of buttons for instructing various settings and determinations (hereinafter referred to as “operation buttons”), and the like. The input device 140 receives an instruction from the user via an imaging shutter or operation buttons.

ディスプレイ150は、液晶ディスプレイや有機ELディスプレイなどから構成される。ディスプレイ150は、撮像モードにおいてはファインダー(電子ファインダー)としての役割を担い、撮像予定の画像(すなわち、イメージセンサーで得られるアナログの画像信号をビデオ信号に変換したデータ)を表示する。また、ディスプレイ150は、ユーザーに対して警告やアナウンスを行うためのメッセージや、各種設定画面などを表示する。   The display 150 includes a liquid crystal display, an organic EL display, or the like. The display 150 plays a role as a finder (electronic finder) in the imaging mode, and displays an image to be captured (that is, data obtained by converting an analog image signal obtained by the image sensor into a video signal). The display 150 displays a message for warning or announcement to the user, various setting screens, and the like.

インターフェイス160は、各種デバイス(不図示)とのデータのやりとり(受信、送信)を制御し、USBケーブルやネットワークを介して各種デバイスと通信を行う。なお、各種デバイスには、撮像装置100を制御する制御装置(例えば、PC)や、撮像装置100で撮像された撮像画像の編集する機能を有する情報処理装置(例えば、PC)などが含まれる。   The interface 160 controls data exchange (reception and transmission) with various devices (not shown), and communicates with various devices via a USB cable or a network. Note that various devices include a control device (for example, a PC) that controls the imaging device 100, an information processing device (for example, a PC) that has a function of editing a captured image captured by the imaging device 100, and the like.

撮像機構170は、被写体を撮像する。例えば、撮像機構170は、図示するように、制御回路171と、発光装置172と、レンズ173と、イメージセンサー174と、距離測定装置175と、を備える。   The imaging mechanism 170 images a subject. For example, as illustrated, the imaging mechanism 170 includes a control circuit 171, a light emitting device 172, a lens 173, an image sensor 174, and a distance measuring device 175.

制御回路171は、撮像機構170に備わる各ユニットを制御し、撮像の制御を行う。   The control circuit 171 controls each unit provided in the imaging mechanism 170 to control imaging.

発光装置172は、一般的なフラッシュランプ(例えば、キセノンランプ)を点灯し、被写体を照明する。   The light emitting device 172 illuminates a subject by turning on a general flash lamp (for example, a xenon lamp).

レンズ173は、一般的なカメラ用レンズであり、外部からの光をイメージセンサー173上に集光する。   The lens 173 is a general camera lens and condenses light from the outside on the image sensor 173.

イメージセンサー174は、レンズ173によって集光された光を受光し、受光量に応じて電荷を蓄積し、撮像画像(アナログ信号)として出力(例えば、不図示の制御回路171に転送)する。イメージセンサー174には、例えば、CCDイメージセンサーやCMOSイメージセンサーなどが用いられる。   The image sensor 174 receives the light collected by the lens 173, accumulates electric charge according to the amount of received light, and outputs it as a captured image (analog signal) (for example, transfers to a control circuit 171 (not shown)). As the image sensor 174, for example, a CCD image sensor or a CMOS image sensor is used.

距離測定装置175は、所定のセンサー(いわゆる、距測センサー)を備え、レンズ173から被写体までの距離を測定する。例えば、距離測定装置175は、所定の電波(超音波、赤外線など)を被写体に向けて発信し、反射された当該電波を受信してレンズ173から被写体までの距離を測定する。   The distance measuring device 175 includes a predetermined sensor (so-called distance sensor), and measures the distance from the lens 173 to the subject. For example, the distance measuring device 175 transmits a predetermined radio wave (ultrasonic wave, infrared ray, etc.) toward the subject, receives the reflected radio wave, and measures the distance from the lens 173 to the subject.

図2(A)は、撮像装置100を正面(撮像時に被写体に向ける面)からみた場合の外観図である。図示するように、発光装置172とレンズ173は、所定距離Sを隔てて所定の位置に配置されている。なお、所定距離Sは、レンズ173の中心位置Oから発光装置172の中心位置Aまでの距離とする。また、撮像装置100の上部には、上述した撮像シャッター141が設けられる。   FIG. 2A is an external view when the imaging device 100 is viewed from the front (the surface facing the subject during imaging). As shown in the drawing, the light emitting device 172 and the lens 173 are arranged at predetermined positions with a predetermined distance S therebetween. The predetermined distance S is a distance from the center position O of the lens 173 to the center position A of the light emitting device 172. In addition, the above-described imaging shutter 141 is provided above the imaging device 100.

また、図2(B)は、撮像装置100を裏面(撮像時に手前に向ける面)からみた場合の外観図である。図示するように、撮像装置100の裏面には、上述した操作ボタン142と、ディスプレイ150と、が設けられる。   FIG. 2B is an external view when the imaging device 100 is viewed from the back surface (the surface facing forward during imaging). As illustrated, the operation button 142 and the display 150 described above are provided on the back surface of the imaging apparatus 100.

本実施形態が適用された撮像装置100は、以上のようなハードウェア構成からなる。ただし、撮像装置100のハードウェア構成はこれに限定されない。例えば、撮像装置100の撮像機構170は、さらに目で覗いて構図を決めるためなどに使用するファインダー(電子ファインダーではない覗き窓)などを備えていてもよい。   The imaging apparatus 100 to which this embodiment is applied has the hardware configuration described above. However, the hardware configuration of the imaging apparatus 100 is not limited to this. For example, the imaging mechanism 170 of the imaging apparatus 100 may further include a finder (a sight window that is not an electronic finder) that is used to determine the composition by looking through the eyes.

図3は、撮像装置100の機能構成図である。図示するように、撮像装置100は、入力受付部101と、表示処理部102と、赤目発生予測部103と、警告部104と、撮像処理部105と、を有する。   FIG. 3 is a functional configuration diagram of the imaging apparatus 100. As illustrated, the imaging apparatus 100 includes an input reception unit 101, a display processing unit 102, a red-eye occurrence prediction unit 103, a warning unit 104, and an imaging processing unit 105.

入力受付部101は、ユーザーからの指示を受け付ける。例えば、入力受付部101は、撮像シャッター141の半押しによって、ピント調整の指示を受け付ける。また、入力受付部101は、撮像シャッター141の長押しによって、撮像の指示を受け付ける。また、入力受付部101は、操作ボタン142を介して、各種設定や決定の指示を受け付ける。   The input receiving unit 101 receives an instruction from a user. For example, the input receiving unit 101 receives a focus adjustment instruction by half-pressing the imaging shutter 141. Further, the input receiving unit 101 receives an imaging instruction by long pressing the imaging shutter 141. The input receiving unit 101 receives various setting and determination instructions via the operation buttons 142.

表示処理部102は、撮像モードにおいてイメージセンサー174で得られる画像データ(正確には、画像信号から変換されたビデオ信号)を表示し、ディスプレイ150をファインダーとして機能させる。また、表示処理部102は、ユーザーに対して警告やアナウンスを行うためのメッセージや、各種設定画面などをディスプレイ150に表示する。   The display processing unit 102 displays image data (more precisely, a video signal converted from an image signal) obtained by the image sensor 174 in the imaging mode, and causes the display 150 to function as a viewfinder. In addition, the display processing unit 102 displays a message for giving a warning or announcement to the user, various setting screens, and the like on the display 150.

赤目発生予測部103は、撮像画像(表示処理部102が表示している画像データ)に赤目が発生するか否か予測する。ここで、赤目発生予測部103は、撮像モードにおいて、入力受付部101でピント調整の指示を受け付けるタイミング(撮像シャッター141が半押し状態にされるタイミング)で、赤目が発生するか否か予測する。   The red-eye occurrence prediction unit 103 predicts whether or not red-eye occurs in the captured image (image data displayed by the display processing unit 102). Here, the red-eye occurrence prediction unit 103 predicts whether or not red-eye will occur at the timing when the input reception unit 101 receives a focus adjustment instruction (timing when the imaging shutter 141 is half-pressed) in the imaging mode. .

一般的には、撮像画像の赤目は、発光装置172から発せられた光が被写体(例えば、人や動物)の目に反射して、その反射光がレンズ173に入射する場合に発生する。ただし、強度の弱い反射光がレンズ173に入射しても撮像画像に赤目は発生せず、強度の強い反射光がレンズ173に入射する場合に撮像画像に赤目が発生する。   In general, red eyes in a captured image are generated when light emitted from the light emitting device 172 is reflected by the eyes of a subject (for example, a person or an animal) and the reflected light enters the lens 173. However, even when reflected light with low intensity is incident on the lens 173, red eyes are not generated in the captured image, and when reflected light with high intensity is incident on the lens 173, red eyes are generated in the captured image.

そこで、本発明の赤目発生予測部103は、撮像装置(具体的にはレンズ173)100と被写体(具体的には被写体の目)の間の距離が所定の基準値以上である場合に赤目が発生すると予測し、撮像装置100と被写体の間の距離が所定の基準値未満である場合には赤目は発生しないと予測する。なお、ここで用いる基準値は、実験によって得られた信憑性の高い値を用い、例えば、レンズ173から発光装置172までの距離の20倍とする。   Therefore, the red-eye occurrence prediction unit 103 according to the present invention generates red-eye when the distance between the imaging device (specifically, the lens 173) 100 and the subject (specifically, the subject's eye) is equal to or greater than a predetermined reference value. When the distance between the imaging apparatus 100 and the subject is less than a predetermined reference value, it is predicted that red eyes will not occur. Note that the reference value used here is a highly reliable value obtained through experiments, and is, for example, 20 times the distance from the lens 173 to the light emitting device 172.

別の言い方をすれば、赤目発生予測部103は、発光装置(具体的には発光装置172の中心位置A)172と被写体(具体的には被写体の目の位置B)を結ぶ直線と、被写体とレンズ(具体的にはレンズ173の中心位置O)173を結ぶ直線と、のなす角θが所定の基準角度Rより狭い場合に撮像画像に赤目が発生すると予測し、当該なす角θが所定の基準角度Rより広い場合に撮像画像に赤目が発生しないと予測する。なお、ここで用いる所定の基準角度Rは、撮像装置100と被写体の間の距離がレンズ173から発光装置172までの距離の20倍となるときの値であり、具体的にはtan(R)=(1/20)を満たす値とする。   In other words, the red-eye occurrence predicting unit 103 determines that the straight line connecting the light emitting device (specifically, the center position A of the light emitting device 172) 172 and the subject (specifically, the eye position B of the subject) and the subject And the lens (specifically, the center position O of the lens 173) 173 and the angle θ formed between the lens and the lens (specifically, the center position O of the lens 173) are predicted to generate red eyes when the angle θ is smaller than a predetermined reference angle R. When the angle is larger than the reference angle R, it is predicted that red eyes will not occur in the captured image. The predetermined reference angle R used here is a value when the distance between the imaging device 100 and the subject is 20 times the distance from the lens 173 to the light emitting device 172. Specifically, tan (R) = A value satisfying (1/20).

すなわち、赤目発生予測部103は、発光装置172と被写体を結ぶ直線と、被写体とレンズ173を結ぶ直線と、のなす角θを算出し、算出したなす角θに基づいて撮像画像に赤目が発生するか否か予測する。   That is, the red-eye occurrence prediction unit 103 calculates an angle θ formed by a straight line connecting the light-emitting device 172 and the subject and a straight line connecting the subject and the lens 173, and red-eye is generated in the captured image based on the calculated angle θ. Predict whether or not to do.

以下に、発光装置172と被写体を結ぶ直線と、被写体とレンズ173を結ぶ直線と、のなす角θを算出する方法について説明する。   Hereinafter, a method for calculating the angle θ formed by the straight line connecting the light emitting device 172 and the subject and the straight line connecting the subject and the lens 173 will be described.

図4は、撮像装置100と被写体の位置関係を示す図である。図示するように、撮像装置100に備わるレンズ173の中心位置Oを原点とし、撮像装置100の正面(撮像時に被写体に向ける面)に平行な2つの直交ベクトル(x軸、y軸)が張る平面を「撮像装置側平面」とする。また、レンズ173の中心位置Oを通り「撮像装置側平面」に直交するベクトルをz軸とする。   FIG. 4 is a diagram illustrating the positional relationship between the imaging apparatus 100 and the subject. As shown in the figure, a plane on which two orthogonal vectors (x axis, y axis) parallel to the front surface of the imaging device 100 (the surface facing the subject at the time of imaging) is stretched with the center position O of the lens 173 provided in the imaging device 100 as the origin. Is an “imaging device side plane”. A vector passing through the center position O of the lens 173 and orthogonal to the “imaging device side plane” is defined as the z-axis.

このとき、発光装置173は、上述した通り、レンズ172から所定距離Sを隔てた位置に配置され、この発光装置173の位置、すなわち発光装置173の中心位置Aの座標(レンズ172に対する相対位置)は、(p,q,r)と置ける。ただし、S={p+q+r(1/2)が成立しているものとし、p、q、rは、それぞれ実数とする。なお、発光装置173の中心位置Aの座標は、予め不揮発性メモリー130などのメモリーに格納されており、赤目発生予測部103は、メモリーから読み出すことによって位置Aの座標(p,q,r)を得ることができる。 At this time, as described above, the light emitting device 173 is disposed at a position separated from the lens 172 by a predetermined distance S, and the position of the light emitting device 173, that is, the coordinates of the center position A of the light emitting device 173 (relative position with respect to the lens 172). Can be placed as (p, q, r). However, it is assumed that S = {p 2 + q 2 + r 2 } (1/2) holds, and p, q, and r are real numbers, respectively. The coordinates of the center position A of the light emitting device 173 are stored in advance in a memory such as the non-volatile memory 130, and the red-eye generation prediction unit 103 reads out the coordinates from the memory (p, q, r). Can be obtained.

それから、赤目発生予測部103は、レンズ173から被写体(目の位置ではなく、被写体面上におけるレンズ173の光軸上の点)までの距離を取得する。具体的には、赤目発生予測部103は、距離測定装置175を用いて、レンズ173から被写体までの距離aを得る。このとき、被写体面上におけるレンズ173の光軸(z軸)上の点の位置O’の座標は(0,0,a)となる。ただしaは、実数とする。   Then, the red-eye occurrence prediction unit 103 acquires the distance from the lens 173 to the subject (not the eye position but a point on the optical axis of the lens 173 on the subject surface). Specifically, the red-eye occurrence prediction unit 103 uses the distance measurement device 175 to obtain the distance a from the lens 173 to the subject. At this time, the coordinates of the position O ′ of the point on the optical axis (z axis) of the lens 173 on the subject surface are (0, 0, a). However, a is a real number.

また、位置O’を含み「撮像装置側平面」に平行な平面を「被写体側平面(被写体面)」と呼び、被写体の目の位置Bは、「被写体側平面」上に存在する。このとき、被写体の目の位置Bの座標は、(m,n,a)と置ける。ただし、m、nは、それぞれ実数とする。また、位置O’から被写体の目の位置Bまでの距離をαと置く。   A plane including the position O ′ and parallel to the “imaging device side plane” is referred to as a “subject side plane (subject plane)”, and the eye position B of the subject exists on the “subject side plane”. At this time, the coordinates of the eye position B of the subject can be set as (m, n, a). However, m and n are each real numbers. Further, the distance from the position O ′ to the eye position B of the subject is set to α.

そして、赤目発生予測部103は、被写体の目の位置Bの2次元座標(m、n)を、イメージセンサー174で得られる画像データ(正確には、画像信号から変換されたビデオ信号)を用いて算出する。   Then, the red-eye occurrence prediction unit 103 uses the two-dimensional coordinates (m, n) of the eye position B of the subject using image data (more precisely, a video signal converted from the image signal) obtained by the image sensor 174. To calculate.

図5(A)は、イメージセンサー174で得られる画像データ(撮像画像)の中心位置と画像データ(撮像画像)内における被写体の位置関係を示す図である。   FIG. 5A is a diagram illustrating the positional relationship between the center position of image data (captured image) obtained by the image sensor 174 and the subject in the image data (captured image).

図示するように、撮像モードにおいて、イメージセンサー174で得られる画像データ(撮像画像)は、表示処理部102によってディスプレイ150に表示される。そして、赤目発生予測部103は、所定の方法によって、画像データ(撮像画像)内における被写体の目の位置B’の位置を検出する。本願発明は、画像データ内における目の位置の検出方法について限定するものではないが、例えば、目の特徴をもつテンプレート画像と比較することによって、目の位置を検出する。それから、赤目発生予測部103は、画像データ(撮像画像)の中心位置O’’を原点(0,0)とし、画像データ(撮像画像)内における被写体の目の位置(中心位置O’’に対する相対位置)B’の座標(m’,n’)を、画素位置(画素数)から求める。具体的には、赤目発生予測部103は、中心位置O’’から目の位置B’までの画素数に、所定の係数(イメージセンサーのサイズ、色ピクセル数、など)を乗じて、位置B’の座標(m’,n’)を算出する。すなわち、m’=(中心位置O’’から目の位置B’までのx軸方向の画素数)×24×10×2832、n’=(中心位置O’’から目の位置B’までのy軸方向の画素数)×24×10×2832、を用いて、位置B’の座標(m’,n’)を算出する。これとともに、赤目発生予測部103は、画像データ(撮像画像)内の中心位置O’’から、画像データ(撮像画像)内における被写体の目の位置B’までの距離βを求める。なお、距離βは、β={m’+n’(1/2)の数式を用いて容易に得ることができる。もちろん、所定の係数(イメージセンサーのサイズ、色ピクセル数、など)を、{(中心位置O’’から目の位置B’までのx軸方向の画素数)+(中心位置O’’から目の位置B’までのy軸方向の画素数)(1/2)に乗じることにより距離βを求めてもよい。 As illustrated, in the imaging mode, image data (captured image) obtained by the image sensor 174 is displayed on the display 150 by the display processing unit 102. Then, the red eye occurrence prediction unit 103 detects the position of the eye position B ′ of the subject in the image data (captured image) by a predetermined method. The present invention is not limited to a method for detecting the eye position in the image data. For example, the eye position is detected by comparison with a template image having eye characteristics. Then, the red-eye occurrence prediction unit 103 sets the center position O ″ of the image data (captured image) as the origin (0, 0), and the subject's eye position (center position O ″ in the image data (captured image)). The coordinates (m ′, n ′) of the relative position B ′ are obtained from the pixel position (number of pixels). Specifically, the red-eye occurrence prediction unit 103 multiplies the number of pixels from the center position O ″ to the eye position B ′ by a predetermined coefficient (the size of the image sensor, the number of color pixels, etc.) to obtain the position B The coordinates (m ', n') of 'are calculated. That is, m ′ = (number of pixels in the x-axis direction from the center position O ″ to the eye position B ′) × 24 × 10 3 × 2832, n ′ = (from the center position O ″ to the eye position B ′) The coordinates (m ′, n ′) of the position B ′ are calculated using (number of pixels in the y-axis direction) × 24 × 10 3 × 2832. At the same time, the red-eye occurrence prediction unit 103 obtains a distance β from the center position O ″ in the image data (captured image) to the eye position B ′ of the subject in the image data (captured image). Note that the distance β can be easily obtained by using the following equation: β = {m ′ 2 + n ′ 2 } (1/2) . Of course, a predetermined coefficient (the size of the image sensor, the number of color pixels, etc.) is determined by {(number of pixels in the x-axis direction from the center position O ″ to the eye position B ′) 2 + (from the center position O ″) The distance β may be obtained by multiplying the number of pixels in the y-axis direction to the eye position B ′) 2 } (1/2) .

そして、赤目発生予測部103は、被写体と、レンズ173と、イメージセンサー174と、の位置関係に基づき、被写体の目の実際の位置Bの2次元座標(m、n)を算出する。なお、2次元座標(m,n)は、レンズ173の中心位置Oに対する相対位置を表している。   Then, the red-eye occurrence prediction unit 103 calculates the two-dimensional coordinates (m, n) of the actual position B of the subject's eyes based on the positional relationship between the subject, the lens 173, and the image sensor 174. The two-dimensional coordinates (m, n) represent the relative position with respect to the center position O of the lens 173.

図5(B)は、被写体、レンズ173、イメージセンサー174の位置関係を示す図である。図示するように、被写体の目(位置B)に反射した光は、レンズ173を通り、イメージセンサー174の位置B’に結像する。すなわち、「被写体側平面(被写体面)」の中心位置O’から被写体の目の位置Bまでの距離αは、イメージセンサー174においては距離β(図示する中心位置O’’から位置B’までの距離)に縮小される。この縮小率(β/α)は、レンズ(中心位置O)173からイメージセンサー(中心位置O’’)174までの距離eと、レンズ(中心位置O)173から被写体(中心位置O’)までの距離aと、の比に等しくなる(或いは、比例する)。従って、最も単純な系では、β/α=e/aの関係式が成立する。なお、レンズ(中心位置O)173からイメージセンサー(中心位置O’’)174までの距離eは、予め不揮発性メモリー130などのメモリーに格納されており、赤目発生予測部103は、メモリーから読み出すことによって距離eを得ることができる。   FIG. 5B is a diagram illustrating a positional relationship between the subject, the lens 173, and the image sensor 174. As shown in the figure, the light reflected by the subject's eyes (position B) passes through the lens 173 and forms an image at the position B ′ of the image sensor 174. That is, the distance α from the center position O ′ of the “subject side plane (subject plane)” to the eye position B of the subject is the distance β (from the center position O ″ shown to the position B ′ in the image sensor 174). (Distance). The reduction ratio (β / α) is determined by the distance e from the lens (center position O) 173 to the image sensor (center position O ″) 174 and from the lens (center position O) 173 to the subject (center position O ′). The distance a is equal to (or proportional to) the ratio. Therefore, in the simplest system, the relational expression β / α = e / a holds. The distance e from the lens (center position O) 173 to the image sensor (center position O ″) 174 is stored in advance in a memory such as the non-volatile memory 130, and the red-eye occurrence prediction unit 103 reads out from the memory. Thus, the distance e can be obtained.

そして、赤目発生予測部103は、上記の関係式(β/α=e/a)を用いて、「被写体側平面(被写体面)」の中心位置O’から被写体の目の位置Bまでの距離αを算出する。具体的には、赤目発生予測部103は、β/α=(e/a)×fの関係式に、先に取得(或いは、算出)しておいた、β、e、a、fを代入して、「被写体側平面(被写体面)」の中心位置O’から被写体の目の位置Bまでの距離αを算出する。ここで、fは、設定されているズーム倍率を示す。   Then, the red-eye occurrence prediction unit 103 uses the above relational expression (β / α = e / a), and the distance from the center position O ′ of the “subject side plane (subject plane)” to the eye position B of the subject. α is calculated. Specifically, the red-eye occurrence prediction unit 103 substitutes β, e, a, and f previously acquired (or calculated) into the relational expression β / α = (e / a) × f. Then, the distance α from the center position O ′ of the “subject side plane (subject plane)” to the eye position B of the subject is calculated. Here, f indicates a set zoom magnification.

それから、赤目発生予測部103は、画像データ(撮像画像)内における被写体の目の位置B’の座標(m’,n’)に、縮小率(β/α)の逆数(α/β)を乗じて、被写体の目の実際の位置Bの2次元座標(m、n)を得る。すなわち、(m,n)=(m’×(α/β),n’×(α/β))の計算式により位置Bの2次元座標(m,n)を得る。ここで、位置Bのz座標は、上述したように、aであることから、位置Bの3次元座標は(m,n,a)となる。   Then, the red-eye occurrence prediction unit 103 sets the reciprocal (α / β) of the reduction ratio (β / α) to the coordinates (m ′, n ′) of the eye position B ′ of the subject in the image data (captured image). Multiply to obtain the two-dimensional coordinates (m, n) of the actual position B of the subject's eyes. That is, the two-dimensional coordinates (m, n) of the position B are obtained by the calculation formula of (m, n) = (m ′ × (α / β), n ′ × (α / β)). Here, since the z coordinate of the position B is a as described above, the three-dimensional coordinate of the position B is (m, n, a).

こうして、赤目発生予測部103は、レンズ173の中心位置Oと、発光装置173の中心位置Aと、被写体の目の位置Bと、の位置関係(各座標)を得ることができる。そして、赤目発生予測部103は、O、A、Bの位置関係(3点の座標)から、発光装置172と被写体を結ぶ直線(A−B)と、被写体とレンズ173を結ぶ直線(B−O)と、のなす角θを算出することができる。例えば、赤目発生予測部103は、被写体の目の位置Bから発光装置173の中心位置AまでのベクトルBAと、被写体の目の位置Bからレンズ173の中心位置OまでのベクトルBOと、の内積を求めて、なす角θを算出する。すなわち、BA・BO=|BA|×|BO|×cos(θ)の関係式を用いて、cos(θ)を算出する。ただし、「・」は内積を表し、|BA|={(p−m)+(q−n)+(r−a)(1/2)、|BO|={(−m)+(−n)+(−a)(1/2)の数式により求めることができる。なお、赤目発生予測部103は、算出したcos(θ)を、tan(θ)に変換しておく。 In this way, the red-eye occurrence prediction unit 103 can obtain the positional relationship (each coordinate) between the center position O of the lens 173, the center position A of the light emitting device 173, and the eye position B of the subject. Then, the red-eye occurrence prediction unit 103 determines a straight line (AB) connecting the light-emitting device 172 and the subject and a straight line (B-) connecting the subject and the lens 173 from the positional relationship (three-point coordinates) of O, A, and B. The angle θ formed by (O) can be calculated. For example, the red-eye occurrence prediction unit 103 calculates the inner product of the vector BA from the subject eye position B to the center position A of the light emitting device 173 and the vector BO from the subject eye position B to the center position O of the lens 173. Is calculated, and the angle θ formed is calculated. That is, cos (θ) is calculated using a relational expression of BA · BO = | BA | × | BO | × cos (θ). However, “·” represents an inner product, and | BA | = {(p−m) 2 + (q−n) 2 + (r−a) 2 } (1/2) , | BO | = {(− m ) 2 + (− n) 2 + (− a) 2 } (1/2) . Note that the red-eye occurrence prediction unit 103 converts the calculated cos (θ) into tan (θ).

以上のように、赤目発生予測部103は、発光装置172と被写体を結ぶ直線と、被写体とレンズ173を結ぶ直線と、のなす角θを算出することができる。そして、赤目発生予測部103は、算出したなす角θ(具体的にはtan(θ))に基づいて、撮像画像に赤目が発生するか否か判定する。具体的には、赤目発生予測部103は、算出したtan(θ)が、上述した所定の基準値(1/20)以上である場合、すなわち、tan(θ)≧(1/20)である場合には、なす角θが所定の基準角度R以上となるため、撮像画像に赤目は発生しないと判定する。一方、赤目発生予測部103は、算出したtan(θ)が、上述した所定の基準値(1/20)未満である場合、すなわち、tan(θ)<(1/20)である場合には、なす角θが所定の基準角度Rより狭くなるため、撮像画像に赤目が発生すると判定する。   As described above, the red-eye occurrence prediction unit 103 can calculate the angle θ formed by the straight line connecting the light emitting device 172 and the subject and the straight line connecting the subject and the lens 173. Then, the red-eye occurrence prediction unit 103 determines whether or not red-eye occurs in the captured image based on the calculated angle θ (specifically, tan (θ)). Specifically, the red-eye occurrence prediction unit 103 determines that tan (θ) ≧ (1/20) when the calculated tan (θ) is equal to or greater than the predetermined reference value (1/20) described above. In this case, since the formed angle θ is equal to or larger than the predetermined reference angle R, it is determined that red-eye does not occur in the captured image. On the other hand, when the calculated tan (θ) is less than the predetermined reference value (1/20) described above, that is, when tan (θ) <(1/20), Since the formed angle θ is narrower than the predetermined reference angle R, it is determined that red-eye occurs in the captured image.

また、赤目発生予測部103は、撮像画像に赤目が発生するか否かについての予測結果を、警告部104に通知する。   In addition, the red-eye occurrence prediction unit 103 notifies the warning unit 104 of a prediction result as to whether or not red-eye occurs in the captured image.

図3に戻り、警告部104は、撮像画像に赤目が発生すると予測された場合に警告を行う。具体的には、警告部104は、撮像画像に赤目が発生すること(予測結果)が赤目発生予測部103から通知された場合に、表示処理部102を介して、赤目が発生する旨のメッセージを表示する。なお、警告部104が行う警告方法は、これに限定されず、例えば、撮像シャッター141をユーザーが押せないようにロックしてもよいし、音声によって赤目が発生することをユーザーに通知するようにしてもよい。   Returning to FIG. 3, the warning unit 104 issues a warning when it is predicted that red eyes will occur in the captured image. Specifically, the warning unit 104 sends a message to the effect that red eyes are generated via the display processing unit 102 when the red-eye generation prediction unit 103 is notified that red-eye occurs in the captured image (prediction result). Is displayed. Note that the warning method performed by the warning unit 104 is not limited to this. For example, the imaging shutter 141 may be locked so that the user cannot press it, or the user is notified that red eyes are generated by voice. May be.

撮像処理部105は、撮像機構170を制御して、被写体の撮像を行う。具体的には、撮像処理部105は、撮像モードにおいて、入力受付部101で撮像の指示を受け付けるタイミング(撮像シャッター141が長押し状態にされるタイミング)で、被写体の撮像を行う。すなわち、撮像処理部105は、撮像モードにおいてイメージセンサー174で得られる画像データ(撮像画像)を、入力受付部101で撮像の指示を受け付けるタイミングで、所定のメモリー(例えば、不揮発性メモリー130)に格納する。   The imaging processing unit 105 controls the imaging mechanism 170 to image a subject. Specifically, in the imaging mode, the imaging processing unit 105 captures an image of a subject at a timing at which the input receiving unit 101 receives an imaging instruction (timing at which the imaging shutter 141 is held down). That is, the imaging processing unit 105 stores image data (captured image) obtained by the image sensor 174 in the imaging mode in a predetermined memory (for example, the non-volatile memory 130) at a timing when the input receiving unit 101 receives an imaging instruction. Store.

本実施形態が適用された撮像装置100は、以上のような構成からなる。ただし、撮像装置100の構成はこれに限定されない。   The imaging apparatus 100 to which this embodiment is applied has the above-described configuration. However, the configuration of the imaging apparatus 100 is not limited to this.

また、上記した各構成要素は、撮像装置100の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。撮像装置100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   In addition, each of the above-described constituent elements is classified according to main processing contents in order to facilitate understanding of the configuration of the imaging apparatus 100. The present invention is not limited by the way of classification and names of the constituent elements. The configuration of the imaging apparatus 100 can be further classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware.

次に、上記構成からなる撮像装置100の特徴的な動作について説明する。   Next, a characteristic operation of the imaging apparatus 100 having the above configuration will be described.

<撮像処理>
図6は、本実施形態の撮像装置100で実行される撮像処理の一例を説明するためのフローチャートである。
<Imaging processing>
FIG. 6 is a flowchart for explaining an example of an imaging process executed by the imaging apparatus 100 of the present embodiment.

撮像装置100は、所定のタイミングで本フローを開始する。例えば、撮像モードに移行する指示がされるタイミングで本フローを開始する。   The imaging apparatus 100 starts this flow at a predetermined timing. For example, this flow is started at a timing when an instruction to shift to the imaging mode is given.

本フローを開始すると、撮像装置100の入力受付部101は、撮像処理の要求が有るか否か判別する(ステップS101)。具体的には、入力受付部101は、撮像シャッター141が半押しの状態にされるまで待機し(ステップS101;No)、撮像シャッター141が半押しの状態にされると、撮像処理の要求がされたと判定し(ステップS101;Yes)、処理をステップS102に移行する。なお、撮像シャッター141が半押し状態にされることによって、入力受付部101ではピント調整の指示がされたと判定し、撮像処理部105はピント調整などの制御を行う。   When this flow is started, the input receiving unit 101 of the imaging apparatus 100 determines whether there is a request for imaging processing (step S101). Specifically, the input receiving unit 101 waits until the imaging shutter 141 is half-pressed (step S101; No). When the imaging shutter 141 is half-pressed, a request for imaging processing is made. It determines with having been carried out (step S101; Yes), and transfers a process to step S102. When the imaging shutter 141 is pressed halfway, the input receiving unit 101 determines that an instruction for focus adjustment has been given, and the imaging processing unit 105 performs control such as focus adjustment.

処理がステップS102に移行すると、赤目発生予測部103は、レンズ173と発光装置172との距離S、すなわち、レンズ173に対する発光装置172の相対的な位置Aの座標(p,q,r)を所定のメモリーから読み出す(ステップS102)。   When the process proceeds to step S102, the red-eye occurrence prediction unit 103 determines the distance S between the lens 173 and the light emitting device 172, that is, the coordinates (p, q, r) of the relative position A of the light emitting device 172 with respect to the lens 173. Reading from a predetermined memory (step S102).

次に、赤目発生予測部103は、撮像装置100から被写体までの距離aを取得する(ステップS103)。具体的には、赤目発生予測部103は、距離測定装置175から所定の電波(超音波、赤外線など)を被写体に向けて発信し、反射された当該電波を受信してレンズ173から被写体(すなわち、「被写体側平面(被写体面)」におけるレンズ173の光軸上の点)までの距離aを取得する。   Next, the red-eye occurrence prediction unit 103 acquires the distance a from the imaging device 100 to the subject (step S103). Specifically, the red-eye occurrence prediction unit 103 transmits predetermined radio waves (ultrasonic waves, infrared rays, etc.) from the distance measuring device 175 to the subject, receives the reflected radio waves, and receives the reflected radio waves from the lens 173 (that is, The distance a to the point on the optical axis of the lens 173 in the “subject side plane (subject plane)” is acquired.

それから、赤目発生予測部103は、発光装置172と被写体を結ぶ直線(A−B)と、被写体とレンズ173を結ぶ直線(B−O)と、のなす角θを算出する(ステップS104)。   Then, the red-eye occurrence prediction unit 103 calculates an angle θ formed by a straight line (AB) connecting the light-emitting device 172 and the subject and a straight line (BO) connecting the subject and the lens 173 (step S104).

具体的には、赤目発生予測部103は、レンズ173の中心位置Oと、発光装置173の中心位置Aと、被写体の目の位置Bと、の位置関係(座標)を用いて、なす角θを算出する。   Specifically, the red-eye occurrence prediction unit 103 uses the positional relationship (coordinates) between the center position O of the lens 173, the center position A of the light emitting device 173, and the eye position B of the subject to make an angle θ Is calculated.

そのために、赤目発生予測部103は、レンズ173の中心位置Oの座標を、原点(0,0,0)とし、発光装置173の中心位置Aの座標を、ステップS102で読み出された(p,q,r)とする。   For this purpose, the red-eye occurrence prediction unit 103 sets the coordinates of the center position O of the lens 173 as the origin (0, 0, 0), and reads the coordinates of the center position A of the light emitting device 173 in step S102 (p , Q, r).

また、赤目発生予測部103は、被写体の目の位置Bの座標を算出するために、レンズ(中心位置O)173からイメージセンサー(中心位置O’’)174までの距離eをメモリーから読み出し、ユーザーによって指定されているズーム倍率fを特定する。さらに、赤目発生予測部103は、イメージセンサー174で得られる撮像画像を用いて、撮像画像の中心位置O’’から撮像画像内における被写体の目の位置B’までの画素数(x軸方向とy軸方向の各画素数)をカウントする。それから、赤目発生予測部103は、上述した通り、「m’=(中心位置O’’から目の位置B’までのx軸方向の画素数)×24×10×2832」、「n’=(中心位置O’’から目の位置B’までのy軸方向の画素数)×24×10×2832」、「β/α=(e/a)×f」、「m=m’×(α/β)」、「n=n’×(α/β)」の計算式を用いて、被写体の目について実際の位置Bの座標(m,n,a)を算出する。参考までに、被写体の目の位置Bの座標(m,n,a)を算出するために用いる計算式をまとめると、「m=(中心位置O’’から目の位置B’までのx軸方向の画素数)×24×10×2832×(a/e)/f」、「n=(中心位置O’’から目の位置B’までのy軸方向の画素数)×24×10×2832×(a/e)/f)」となる。 The red-eye occurrence prediction unit 103 reads a distance e from the lens (center position O) 173 to the image sensor (center position O ″) 174 from the memory in order to calculate the coordinates of the eye position B of the subject. The zoom magnification f specified by the user is specified. Further, the red-eye occurrence prediction unit 103 uses the captured image obtained by the image sensor 174 to calculate the number of pixels (from the x-axis direction and the position B ′ of the subject's eye in the captured image from the center position O ″ of the captured image). The number of pixels in the y-axis direction) is counted. Then, as described above, the red-eye occurrence prediction unit 103 determines that “m ′ = (number of pixels in the x-axis direction from the center position O ″ to the eye position B ′) × 24 × 10 3 × 2832”, “n ′. = (Number of pixels in the y-axis direction from the center position O ″ to the eye position B ′) × 24 × 10 3 × 2832 ”,“ β / α = (e / a) × f ”,“ m = m ′ The coordinates (m, n, a) of the actual position B are calculated for the subject's eyes using the calculation formulas of “× (α / β)” and “n = n ′ × (α / β)”. For reference, the calculation formulas used to calculate the coordinates (m, n, a) of the eye position B of the subject are summarized as follows: “m = (x-axis from the center position O ″ to the eye position B ′) Number of pixels in the direction) × 24 × 10 3 × 2832 × (a / e) / f ”,“ n = (number of pixels in the y-axis direction from the center position O ″ to the eye position B ′) × 24 × 10 3 × 2832 × (a / e) / f) ”.

そして、赤目発生予測部103は、算出したO、A、Bの3点の座標から、発光装置172と被写体を結ぶ直線(A−B)と、被写体とレンズ173を結ぶ直線(B−O)と、のなす角θを算出する。すなわち、上述した通り、赤目発生予測部103は、BA・BO=|BA|×|BO|×cos(θ)の関係式を用いて、cos(θ)、及び、tan(θ)を算出する。   Then, the red-eye occurrence prediction unit 103 calculates the straight line (AB) connecting the light emitting device 172 and the subject and the straight line (BO) connecting the subject and the lens 173 from the calculated coordinates of the three points O, A, and B. And the angle θ formed by That is, as described above, the red-eye occurrence prediction unit 103 calculates cos (θ) and tan (θ) using the relational expression BA · BO = | BA | × | BO | × cos (θ). .

その後、赤目発生予測部103は、ステップS104で算出されたなす角θ(具体的にはtan(θ))に基づいて、撮像画像に赤目が発生するか否か判別する(ステップS105)。具体的には、赤目発生予測部103は、ステップS104で算出されたtan(θ)が、上述した所定の基準値(1/20)以上である場合、すなわち、tan(θ)≧(1/20)である場合に、なす角θが所定の基準角度R以上とみなし、撮像画像に赤目は発生しないと判定する。また、赤目発生予測部103は、ステップS104で撮像画像内から赤目を検出できなかった場合(被写体が十分に遠い場合も含む)においても、撮像画像に赤目は発生しないと判定する。一方、赤目発生予測部103は、ステップS104で算出されたtan(θ)が、上述した所定の基準値(1/20)未満である場合、すなわち、tan(θ)<(1/20)である場合に、なす角θが所定の基準角度Rより狭くなるとみなし、撮像画像に赤目が発生すると判定する。   Thereafter, the red-eye occurrence prediction unit 103 determines whether or not red-eye occurs in the captured image based on the angle θ (specifically tan (θ)) formed in step S104 (step S105). Specifically, the red-eye occurrence prediction unit 103 determines that tan (θ) calculated in step S104 is equal to or greater than the predetermined reference value (1/20) described above, that is, tan (θ) ≧ (1 / 20), it is determined that the formed angle θ is equal to or greater than the predetermined reference angle R, and no red-eye is generated in the captured image. Further, the red-eye occurrence prediction unit 103 determines that no red-eye is generated in the captured image even when the red-eye cannot be detected from the captured image in step S104 (including a case where the subject is sufficiently far away). On the other hand, the red-eye occurrence prediction unit 103 determines that tan (θ) calculated in step S104 is less than the predetermined reference value (1/20) described above, that is, tan (θ) <(1/20). In some cases, it is determined that the formed angle θ is narrower than a predetermined reference angle R, and it is determined that red-eye occurs in the captured image.

ここで、赤目発生予測部103は、撮像画像に赤目が発生すると判定された場合には(ステップS105;Yes)、その判定結果(予測結果)を警告部104に通知して、処理をステップS106に移行する。   Here, when it is determined that red eyes are generated in the captured image (step S105; Yes), the red-eye occurrence prediction unit 103 notifies the warning unit 104 of the determination result (prediction result), and the process is performed in step S106. Migrate to

処理がステップS106に移行すると、警告部104は、表示処理部102を介して、赤目が発生する旨のメッセージを表示する。このとき、例えば、表示処理部102は、ディスプレイ150に、「赤目が発生する可能性があります。撮影をこのまま続行しますか?」などのメッセージを表示する。   When the process proceeds to step S <b> 106, the warning unit 104 displays a message indicating that red eyes are generated via the display processing unit 102. At this time, for example, the display processing unit 102 displays a message such as “There is a possibility that red eyes may occur. Do you want to continue shooting?” On the display 150.

それから、警告部104は、処理をステップS107に移行する。   Then, the warning unit 104 moves the process to step S107.

一方、ステップS105において、赤目発生予測部103は、撮像画像に赤目は発生しないと判定された場合には(ステップS105;No)、ステップS106の警告をせずに、処理をステップS107に移行する。   On the other hand, when it is determined in step S105 that red-eye does not occur in the captured image (step S105; No), the process proceeds to step S107 without warning in step S106. .

処理がステップS107に移行すると、撮像処理部105は、入力受付部101を介して撮像の指示がされたか否か判別する(ステップS107)。具体的には、撮像処理部105は、撮像シャッター141が長押しの状態にされると、撮像の指示がされたと判定し(ステップS107;Yes)、処理をステップS108に移行する。   When the process proceeds to step S107, the imaging processing unit 105 determines whether an imaging instruction has been given via the input receiving unit 101 (step S107). Specifically, the imaging processing unit 105 determines that an imaging instruction has been given when the imaging shutter 141 is in a long-pressed state (step S107; Yes), and the process proceeds to step S108.

処理がステップS108に移行すると、撮像処理部105は、撮像を行う(ステップS108)。具体的には、撮像処理部105は、イメージセンサー174で得られる画像データ(撮像画像)を、所定のメモリー(例えば、不揮発性メモリー130)に格納する。そして、撮像後、撮像処理部105は、本フローを終了する。   When the process proceeds to step S108, the imaging processing unit 105 performs imaging (step S108). Specifically, the imaging processing unit 105 stores image data (captured image) obtained by the image sensor 174 in a predetermined memory (for example, the nonvolatile memory 130). Then, after imaging, the imaging processing unit 105 ends this flow.

一方、ステップs107において、撮像処理部105は、撮像シャッター141が押されていない状態に戻されると、撮像中止の指示がされたと判定し(ステップS107;No)、本フローを終了する。   On the other hand, in step s107, when the imaging processing unit 105 returns to the state where the imaging shutter 141 is not pressed, the imaging processing unit 105 determines that an instruction to stop imaging is given (step S107; No), and ends this flow.

以上の撮像処理を行うことにより、本実施形態の撮像装置100は、被写体(例えば、人や動物)の目に反射してレンズ173に入射する光(フラッシュ)の強度(なす角θに基づくデータ)に応じて、赤目の発生を予測している。そのため、簡易な方法でありながら、従来よりも精度良く赤目の発生を予測できる。   By performing the above-described imaging processing, the imaging apparatus 100 according to the present embodiment performs data based on the intensity (the angle θ formed) of the light (flash) that is reflected by the eyes of the subject (for example, a person or an animal) and enters the lens 173. ) To predict the occurrence of red eyes. Therefore, although it is a simple method, the occurrence of red eyes can be predicted with higher accuracy than in the past.

なお、上記した各フローの各処理単位は、撮像装置100を理解容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。撮像装置100が行う処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。   Note that each processing unit of each flow described above is divided according to main processing contents in order to make the imaging apparatus 100 easy to understand. The invention of the present application is not limited by the method of classification of the processing steps and the names thereof. The processing performed by the imaging apparatus 100 can be divided into more processing steps. One processing step may execute more processes.

また、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。   Moreover, said embodiment intends to illustrate the summary of this invention, and does not limit this invention. Many alternatives, modifications, and variations will be apparent to those skilled in the art.

例えば、上記の実施形態では、赤目発生予測部103は、レンズ173の中心位置Oと、発光装置173の中心位置Aと、被写体の目の位置Bと、の3次元座標(位置関係)を用いて、なす角θ(発光装置172と被写体を結ぶ直線と、被写体とレンズ173を結ぶ直線と、のなす角)を算出している。しかし、本発明は、これに限定されず、他の方法によって、なす角θを算出するようにしてもよい。例えば、赤目発生予測部103は、レンズ173の中心位置Oと、発光装置173の中心位置Aと、被写体の目の位置Bと、の2次元座標を用いて、なす角θを算出してもよい。もちろん、この場合には、なす角θの演算過程において、所定の近似などが必要となる。   For example, in the above embodiment, the red-eye occurrence prediction unit 103 uses the three-dimensional coordinates (positional relationship) of the center position O of the lens 173, the center position A of the light emitting device 173, and the eye position B of the subject. Thus, an angle θ (an angle formed by a straight line connecting the light emitting device 172 and the subject and a straight line connecting the subject and the lens 173) is calculated. However, the present invention is not limited to this, and the angle θ formed may be calculated by another method. For example, the red-eye occurrence prediction unit 103 may calculate the angle θ formed using the two-dimensional coordinates of the center position O of the lens 173, the center position A of the light emitting device 173, and the eye position B of the subject. Good. Of course, in this case, a predetermined approximation or the like is required in the process of calculating the angle θ formed.

また、図7は、撮像装置100の変形例を示す図である。発光装置172が配置される位置は、図2(A)に示す位置に限定されず、図7に示すように、レンズ173の上部方向に配置されていてもよい。つまり、本発明は、発光装置172が配置される位置について限定しない。そして、撮像装置100は、レンズ173から発光装置172までの距離S、すなわち、レンズ173に対する発光装置172の相対位置A(座標)を予めメモリーに格納しておけばよい。   FIG. 7 is a diagram illustrating a modified example of the imaging apparatus 100. The position at which the light emitting device 172 is disposed is not limited to the position illustrated in FIG. 2A, and may be disposed in the upper direction of the lens 173 as illustrated in FIG. That is, the present invention does not limit the position where the light emitting device 172 is disposed. The imaging apparatus 100 may store the distance S from the lens 173 to the light emitting device 172, that is, the relative position A (coordinates) of the light emitting device 172 with respect to the lens 173 in advance in the memory.

100・・・撮像装置、101・・・入力受付部、102・・・表示処理部、103・・・赤目発生予測部、104・・・警告部、105・・・撮像処理部、110・・・CPU、120・・・揮発性メモリー、130・・・不揮発性メモリー、140・・・入力装置、141・・・撮像シャッター、142・・・操作ボタン、150・・・ディスプレイ、160・・・インターフェイス、170・・・撮像機構、171・・・制御回路、172・・・発光装置、173・・・レンズ、174・・・イメージセンサー、175・・・距離測定装置 DESCRIPTION OF SYMBOLS 100 ... Imaging device, 101 ... Input reception part, 102 ... Display processing part, 103 ... Red eye generation | occurrence | production prediction part, 104 ... Warning part, 105 ... Imaging processing part, 110 ... CPU, 120 ... volatile memory, 130 ... non-volatile memory, 140 ... input device, 141 ... imaging shutter, 142 ... operation buttons, 150 ... display, 160 ... Interface, 170 ... Imaging mechanism, 171 ... Control circuit, 172 ... Light emitting device, 173 ... Lens, 174 ... Image sensor, 175 ... Distance measuring device

Claims (8)

発光部と、
レンズを介して被写体を撮像した撮像画像を出力するイメージセンサーと、
前記発光部と前記被写体を結ぶ直線と、当該被写体と前記レンズを結ぶ直線と、のなす角を算出し、当該なす角に基づいて前記撮像画像に赤目が発生するか否か予測する赤目発生予測部と、
前記赤目発生予測部で赤目が発生すると予測された場合に警告を行う警告部と、を備え、
前記赤目発生予測部は、前記撮像画像内における目の位置に基づいて算出した、前記被写体を含む被写体面における前記目の座標に基づいて前記なす角を算出し、
前記赤目発生予測部は、
前記レンズから前記被写体面までの第1の距離と、前記イメージセンサーから前記レンズまでの第2の距離と、前記レンズの所定の位置を示す第1の座標に基づいて決まる、前記発光部の所定の位置を示す座標である第2の座標と、を取得し、
撮像画像の中心位置を示す第3の座標に基づいて決まる、当該撮像画像内における前記被写体の位置を示す第4の座標を算出し、
前記第1の距離と、前記第2の距離と、前記第3の座標と前記第4の座標との間の第3の距離と、から定まる、前記被写体面における前記レンズの光軸上の点から前記被写体の位置までの第4の距離を算出し、
前記被写体面における前記レンズの光軸上の点の座標に基づいて決まる、前記被写体の位置を示す第5の座標を、前記第2の座標と、前記第3の距離と、前記第4の距離と、に基づき算出し、
前記第1の座標と、前記第5の座標と、前記第2の座標と、から前記なす角を算出する、
ことを特徴とする赤目判定装置。
A light emitting unit;
An image sensor that outputs a captured image obtained by imaging a subject via a lens;
A red-eye occurrence prediction that calculates an angle formed by a straight line connecting the light emitting unit and the subject and a straight line connecting the subject and the lens, and predicts whether or not red-eye occurs in the captured image based on the formed angle. And
A warning unit that issues a warning when red-eye occurrence is predicted to occur in the red-eye occurrence prediction unit,
The red-eye occurrence prediction unit calculates the angle formed based on the coordinates of the eye on the subject surface including the subject, calculated based on the position of the eye in the captured image ,
The red-eye occurrence prediction unit
A predetermined distance of the light emitting unit determined based on a first distance from the lens to the subject surface, a second distance from the image sensor to the lens, and a first coordinate indicating a predetermined position of the lens; A second coordinate which is a coordinate indicating the position of
Calculating a fourth coordinate indicating the position of the subject in the captured image, determined based on the third coordinate indicating the center position of the captured image;
A point on the optical axis of the lens on the object plane determined from the first distance, the second distance, and a third distance between the third coordinate and the fourth coordinate. A fourth distance from the subject to the subject position,
The fifth coordinate indicating the position of the subject, the second coordinate, the third distance, and the fourth distance determined based on the coordinates of a point on the optical axis of the lens on the subject surface. And calculated based on
Calculating the angle formed from the first coordinate, the fifth coordinate, and the second coordinate;
A red-eye determination device characterized by that.
請求項1に記載の赤目判定装置であって、
前記赤目発生予測部は、
前記なす角が所定の角度より狭い場合に、撮像画像に赤目が発生すると予測する、
ことを特徴とする赤目判定装置。
The red-eye determination device according to claim 1,
The red-eye occurrence prediction unit
Predicting that red-eye occurs in the captured image when the angle formed is narrower than a predetermined angle;
A red-eye determination device characterized by that.
請求項1又は2に記載の赤目判定装置であって、
前記赤目発生予測部は、
前記第4の距離=前記第3の距離×(前記第1の距離/前記第2の距離)/前記イメージセンサーにおけるズーム倍率の関係式を用いて、前記第4の距離を算出する、
ことを特徴とする赤目判定装置。
The red-eye determination device according to claim 1 or 2 ,
The red-eye occurrence prediction unit
The fourth distance is calculated using a relational expression of the fourth distance = the third distance × (the first distance / the second distance) / the zoom magnification in the image sensor.
A red-eye determination device characterized by that.
請求項1乃至のいずれか1項に記載の赤目判定装置であって、
前記警告部は、
撮像シャッターが半押し状態にされるタイミングで前記警告を行う、
ことを特徴とする赤目判定装置。
The red-eye determination device according to any one of claims 1 to 3 ,
The warning part is
The warning is given when the imaging shutter is half pressed.
A red-eye determination device characterized by that.
発光部と、レンズを介して被写体を撮像した撮像画像を出力するイメージセンサーと、を備える装置における赤目判定方法であって、
前記発光部と前記被写体を結ぶ直線と、当該被写体と前記レンズを結ぶ直線と、のなす角を算出し、当該なす角に基づいて前記撮像画像に赤目が発生するか否か予測する赤目発生予測ステップと、
前記赤目発生予測ステップで赤目が発生すると予測された場合に警告を行う警告ステップと、
を行い、
前記赤目発生予測ステップでは、前記撮像画像内における目の位置に基づいて算出した、前記被写体を含む被写体面における前記目の座標に基づいて前記なす角を算出し、
前記赤目発生予測ステップでは、
前記レンズから前記被写体面までの第1の距離と、前記イメージセンサーから前記レンズまでの第2の距離と、前記レンズの所定の位置を示す第1の座標に基づいて決まる、前記発光部の所定の位置を示す座標である第2の座標と、を取得し、
撮像画像の中心位置を示す第3の座標に基づいて決まる、当該撮像画像内における前記被写体の位置を示す第4の座標を算出し、
前記第1の距離と、前記第2の距離と、前記第3の座標と前記第4の座標との間の第3の距離と、から定まる、前記被写体面における前記レンズの光軸上の点から前記被写体の位置までの第4の距離を算出し、
前記被写体面における前記レンズの光軸上の点の座標に基づいて決まる、前記被写体の位置を示す第5の座標を、前記第2の座標と、前記第3の距離と、前記第4の距離と、に基づき算出し、
前記第1の座標と、前記第5の座標と、前記第2の座標と、から前記なす角を算出する、
ことを特徴とする赤目判定方法。
A red-eye determination method in an apparatus comprising: a light emitting unit; and an image sensor that outputs a captured image obtained by imaging a subject via a lens,
A red-eye occurrence prediction that calculates an angle formed by a straight line connecting the light emitting unit and the subject and a straight line connecting the subject and the lens, and predicts whether or not red-eye occurs in the captured image based on the formed angle. Steps,
A warning step for giving a warning when red-eye is predicted to occur in the red-eye occurrence prediction step;
And
In the red-eye occurrence prediction step, the angle formed based on the coordinates of the eye on the subject surface including the subject, calculated based on the position of the eye in the captured image ,
In the red-eye occurrence prediction step,
A predetermined distance of the light emitting unit determined based on a first distance from the lens to the subject surface, a second distance from the image sensor to the lens, and a first coordinate indicating a predetermined position of the lens; A second coordinate which is a coordinate indicating the position of
Calculating a fourth coordinate indicating the position of the subject in the captured image, determined based on the third coordinate indicating the center position of the captured image;
A point on the optical axis of the lens on the object plane determined from the first distance, the second distance, and a third distance between the third coordinate and the fourth coordinate. A fourth distance from the subject to the subject position,
The fifth coordinate indicating the position of the subject, the second coordinate, the third distance, and the fourth distance determined based on the coordinates of a point on the optical axis of the lens on the subject surface. And calculated based on
Calculating the angle formed from the first coordinate, the fifth coordinate, and the second coordinate;
A red-eye determination method characterized by the above.
請求項に記載の赤目判定方法であって、
前記赤目発生予測ステップでは、
前記なす角が所定の角度より狭い場合に、撮像画像に赤目が発生すると予測する、
ことを特徴とする赤目判定方法。
The red-eye determination method according to claim 5 ,
In the red-eye occurrence prediction step,
Predicting that red-eye occurs in the captured image when the angle formed is narrower than a predetermined angle;
A red-eye determination method characterized by the above.
請求項5又は6に記載の赤目判定方法であって、
前記赤目発生予測ステップでは、
前記第4の距離=前記第3の距離×(前記第1の距離/前記第2の距離)/前記イメージセンサーにおけるズーム倍率の関係式を用いて、前記第4の距離を算出する、
ことを特徴とする赤目判定方法。
The red-eye determination method according to claim 5 or 6 ,
In the red-eye occurrence prediction step,
The fourth distance is calculated using a relational expression of the fourth distance = the third distance × (the first distance / the second distance) / the zoom magnification in the image sensor.
A red-eye determination method characterized by the above.
請求項乃至のいずれか1項に記載の赤目判定方法であって、
前記警告ステップでは、
撮像シャッターが半押し状態にされるタイミングで前記警告を行う、
ことを特徴とする赤目判定方法。
The red-eye determination method according to any one of claims 5 to 7 ,
In the warning step,
The warning is given when the imaging shutter is half pressed.
A red-eye determination method characterized by the above.
JP2010120091A 2010-05-26 2010-05-26 Red-eye determination device and red-eye determination method Expired - Fee Related JP5604980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010120091A JP5604980B2 (en) 2010-05-26 2010-05-26 Red-eye determination device and red-eye determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010120091A JP5604980B2 (en) 2010-05-26 2010-05-26 Red-eye determination device and red-eye determination method

Publications (2)

Publication Number Publication Date
JP2011250055A JP2011250055A (en) 2011-12-08
JP5604980B2 true JP5604980B2 (en) 2014-10-15

Family

ID=45414788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010120091A Expired - Fee Related JP5604980B2 (en) 2010-05-26 2010-05-26 Red-eye determination device and red-eye determination method

Country Status (1)

Country Link
JP (1) JP5604980B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02306228A (en) * 1989-05-22 1990-12-19 Minolta Camera Co Ltd Camera recording information in external memory device
JP2839002B2 (en) * 1996-03-25 1998-12-16 株式会社ニコン camera

Also Published As

Publication number Publication date
JP2011250055A (en) 2011-12-08

Similar Documents

Publication Publication Date Title
EP3248374B1 (en) Method and apparatus for multiple technology depth map acquisition and fusion
JP6456156B2 (en) Normal line information generating apparatus, imaging apparatus, normal line information generating method, and normal line information generating program
JP6512810B2 (en) Image pickup apparatus, control method and program
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
JP5843454B2 (en) Image processing apparatus, image processing method, and program
US11275230B2 (en) Detection apparatus, detection method, detection program, and imaging apparatus
JP5246078B2 (en) Object location program and camera
JP2011191568A (en) Imaging device, display method and program
JP2006279546A (en) Electronic camera, image processing program, and image processing method
JP6357646B2 (en) Imaging device
JP6700818B2 (en) Image processing device, imaging device, and image processing method
JP6564284B2 (en) Image processing apparatus and image processing method
JP6326631B2 (en) Imaging device
EP2597863A2 (en) Digital Photographing Apparatus and Control Method Thereof
US9591213B2 (en) Electronic device, method and storage medium for generating an image
US8179431B2 (en) Compound eye photographing apparatus, control method therefor, and program
JP6346484B2 (en) Image processing apparatus and control method thereof
JP2020187065A (en) Electronic device and control method thereof, and program
JP7106259B2 (en) Image processing device, imaging device, and image processing method
JP2017135528A (en) Image processing device, imaging apparatus and image processing program
JP5604980B2 (en) Red-eye determination device and red-eye determination method
US20190394394A1 (en) Image processing device, image processing method, and image processing program
CN110021044B (en) Method for calculating coordinates of shot object by using double-fisheye image and image acquisition device
TW201642008A (en) Image capturing device and dynamic focus method thereof
WO2017013873A1 (en) Dimension measurement device, dimension measurement system, and dimension measurement method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140508

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140811

R150 Certificate of patent or registration of utility model

Ref document number: 5604980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees