JP2007180850A - Photographing device - Google Patents
Photographing device Download PDFInfo
- Publication number
- JP2007180850A JP2007180850A JP2005376462A JP2005376462A JP2007180850A JP 2007180850 A JP2007180850 A JP 2007180850A JP 2005376462 A JP2005376462 A JP 2005376462A JP 2005376462 A JP2005376462 A JP 2005376462A JP 2007180850 A JP2007180850 A JP 2007180850A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- imaging
- subject
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、追尾や顔検出等の画像認識機能を備えた撮影装置に関する。 The present invention relates to a photographing apparatus having an image recognition function such as tracking and face detection.
従来の撮影装置では、撮影前に得られる画像毎に、人物等の被写体を色相の違いに基づいて追尾する技術が用いられる場合がある。このような撮影装置では、追尾された被写体に合わせて撮影条件が設定される(例えば、特許文献1)。
しかしながら、特許文献1の手法では、追尾された被写体は、撮影条件の設定に適しているとは限らなかった。例えば、被写体となる人物が身につけた衣類の色相が周辺の色相と大きく異なるときには、衣類が追尾され、衣類に合わせて撮影条件が設定される。しかし、撮影条件が設定される被写体としては、衣類ではなく人物の顔が適切である。このように、追尾される被写体は、撮影者が撮影条件を設定したい被写体と同じとは限らない。 However, in the method of Patent Document 1, the tracked subject is not always suitable for setting the shooting conditions. For example, when the hue of clothing worn by a person as a subject is significantly different from the surrounding hues, the clothing is tracked and shooting conditions are set according to the clothing. However, a person's face, not clothing, is appropriate as a subject for which shooting conditions are set. Thus, the subject to be tracked is not necessarily the same as the subject for which the photographer wants to set the photographing conditions.
本発明の目的は、撮影者の意図する被写体に対して撮影条件を設定可能な撮影装置を提供することである。 An object of the present invention is to provide a photographing apparatus capable of setting photographing conditions for a subject intended by a photographer.
請求項1の撮影装置では、撮像手段は、被写体像の撮影前に被写体像の画像を取得する。抽出手段は、撮像手段により取得された画像から、予め決められた領域にある第1部分画像を抽出する。決定手段は、撮像手段により取得された画像において第1部分画像から所定のベクトルだけ離れた領域にある第2部分画像に合わせて撮影条件を決定する。
請求項2の撮影装置では、追尾手段は、抽出手段によって抽出される第1部分画像に基づいて追尾処理を行う。
In the photographing apparatus according to the first aspect, the imaging means acquires the image of the subject image before photographing the subject image. The extraction unit extracts a first partial image in a predetermined area from the image acquired by the imaging unit. The determining unit determines the imaging condition in accordance with the second partial image in an area separated from the first partial image by a predetermined vector in the image acquired by the imaging unit.
According to another aspect of the present invention, the tracking unit performs the tracking process based on the first partial image extracted by the extraction unit.
請求項3の撮影装置では、顔抽出手段は、撮像手段により取得された画像から、被写体像である人物の顔に対応する顔画像を抽出する。ベクトルは、抽出手段によって抽出される第1部分画像と顔抽出手段によって抽出された顔画像とを結ぶ位置ベクトルである。
請求項4の撮影装置では、抽出手段もしくは顔抽出手段は、第1部分画像または顔画像の何れか一方の抽出を失敗したときにベクトルに基づいて他方の抽出を実行する。
According to the third aspect of the present invention, the face extracting unit extracts a face image corresponding to a human face as a subject image from the image acquired by the imaging unit. The vector is a position vector connecting the first partial image extracted by the extracting unit and the face image extracted by the face extracting unit.
According to another aspect of the present invention, when the extraction unit or the face extraction unit fails to extract either the first partial image or the face image, the extraction unit or the face extraction unit executes the other extraction based on the vector.
撮影者の意図する被写体に合わせて撮影条件を設定できる。 Shooting conditions can be set according to the subject intended by the photographer.
以下、本発明の実施形態を図面を用いて説明する。
図1は本発明の撮影装置の第1の実施形態を示している。カメラ100(撮影装置)は、例えば一眼レフレックスタイプのデジタルカメラであり、カメラ本体102を有している。
撮影レンズ104は、被写体からの光束をカメラ本体102に導くために、カメラ本体102の前面に形成されたレンズマウント102aに着脱自在に取り付けられる。レンズマウント102aには、カメラ本体102と撮影レンズ104との間で各種情報を授受するための通信接点(図示せず)が設けられている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows a first embodiment of the photographing apparatus of the present invention. The camera 100 (photographing device) is, for example, a single-lens reflex digital camera, and has a
The
カメラ本体102は、クイックリターンミラー10、ファインダスクリーン12、ペンタダハプリズム14、ハーフミラー16、再結像光学系18、エリアセンサ20(撮像手段)、接眼レンズ22、被写体に閃光発光を照射する閃光発光部23、機械式のシャッタ24、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等で構成される撮像素子26、CPU28(抽出手段、追尾手段及び決定手段)及びROM30を有している。
The
クイックリターンミラー10は、光軸OA上に回動自在に設けられる。クイックリターンミラー10は、被写体の撮影を行わない非撮影時に、光軸OAに対して斜めの位置に配置される。ファインダスクリーン12は、非撮影時に、クイックリターンミラー10から入射される光束を受光可能な位置に配置される。
ファインダスクリーン12は、クイックリターンミラー10により結像された光束を拡散し、ペンタダハプリズム14を介してハーフミラー16に導く位置に配置される。ハーフミラー16は、ペンタダハプリズム14を介して導かれた光束を再結像光学系18及び接眼レンズ22にそれぞれ導く位置に配置される。再結像光学系18は、ハーフミラー16を介して光束をエリアセンサ20に結像可能な位置に配置される。
The
The
エリアセンサ20は、ペンタダハプリズム14の後側の位置に配置される。なお、エリアセンサ20の位置は、被写体の撮影が開始される前に光束を結像できる位置であれば、例えば、ファインダースクリーン12上でもよい。また、コンパクトタイプのデジタルカメラであれば、撮影動作に用いる撮像素子を撮影前から動作させて画像を取得し、取得した画像をCPUに出力する構成としてもよい。
The
エリアセンサ20は、CCD等の撮像素子で構成される。エリアセンサ20は、再結像光学系18により結像された光束を光電変換して、R(赤)、G(緑)、B(青)の色成分の画像信号をCPU28に出力する。接眼レンズ22は、ハーフミラー16から導かれた光束を被写体像として結像可能な位置に配置される。撮影者は、接眼レンズ22により結像された被写体像を見ることで、被写体の構図や状態を確認できる。
The
シャッタ24は、クイックリターンミラー10が図の破線で示す位置に退避する撮影時に、被写体から入射される光束を受光可能な位置に配置される。シャッタ24は、レンズ系32から撮像素子26への光路を遮る位置に配置されるシャッタ膜を有している。シャッタ24は、図示しないシャッタドライバにより駆動され、レンズ系32からカメラ本体102に入射された光束により撮像素子26が露光される露光時間を調節する。シャッタ膜は、被写体の撮像時にレンズ系32から撮像素子26への光路を確保するために開く。なお、機械式のシャッタ24に代えて、撮像素子26の電子シャッタにより露光時間を調節する構成としてもよい。あるいは、機械式のシャッタ24と、撮像素子26の電子シャッタとを併用する構成としてもよい。
The
撮像素子26は、シャッタ24を介してレンズ系32に対向する位置に配置されている。撮像素子26は、図示しない撮像素子ドライバにより駆動され、レンズ系32より結像される被写体像を光電変換し、光電変換した画像をCPU28に出力する。
撮影レンズ104は、レンズ系32及び絞り34を有している。レンズ系32は、被写体に焦点を合わせるフォーカスレンズや被写体像をズームするためのズームレンズを含む複数枚のレンズにより構成される。フォーカスレンズ及びズームレンズは、図示しないレンズ駆動回路により光軸OA方向の位置が調節される。絞り34は、図示しない絞りドライバによって駆動される。絞り34の絞り値は、レンズ系32を通過した光の光量を絞るように調節される。
The
The taking
図2及び図3は、エリアセンサ20によって順次出力された画像SP1、SP2を示している。ここでは、被写体が人物であるとして説明する。画像SP1、SP2は、この順番で出力される。これらの画像は、いずれも横32画素、縦24画素で構成されている。この画素の数は、特定の数に限定されない。また、画素の形状は、矩形ではなく、円形や多角形の画素を組み合わせて画像を構成してもよい。なお、図2及び図3において、i、jは、図の水平及び垂直方向それぞれにおける画素単位の座標を示している。
2 and 3 show images SP1 and SP2 sequentially output by the
図2に示す符号36は、画像SP1内で人物が存在する位置、符号38は、図4で説明する追尾演算によって被写体(この例では、人物の衣服)の追尾が行われる追尾枠を示している。図3に示す符号40は、画像SP2内で追尾演算によって更新された新たな追尾枠(第1部分画像)、符号42は、撮影者の意図する被写体(この例では、人物の顔)に合わせて露出条件を決定するために参照される露出決定位置(第2部分画像)を示している。
2 indicates a position where a person exists in the image SP1, and
図4は、撮影装置の第1の実施形態における露出条件決定動作を示している。図4に示す動作は、CPU28(抽出手段、追尾手段及び決定手段)がROM30に格納されたプログラムを実行することによって実現される。
まず、ステップS100において、CPU28は、撮影者によりレリーズスイッチが半押しされるのを待つ。レリーズスイッチの半押しが検出されると、処理はステップS102に移行する。ステップS100は、レリーズスイッチの半押しが検出されるまで繰り返される。
FIG. 4 shows an exposure condition determining operation in the first embodiment of the photographing apparatus. The operation shown in FIG. 4 is realized by the CPU 28 (extraction means, tracking means, and determination means) executing a program stored in the
First, in step S100, the
ステップS102において、CPU28は、エリアセンサ20から出力された画像SP1(図2)を用いて、予め決められた追尾枠38内の特徴量C(sigmabBV、sigmagBV、sigmarBV)を算出する。なお、この追尾枠38は、レリーズスイッチ半押し時に画像SP1の中心に位置していた被写体(例えば、人物の衣服)に合わせて設定されてもよく、あるいは、ユーザの操作によって画像SP1上で指定されてもよい。CPU28は、以下の演算式(1)を用いて特徴量Cを算出する。
In step S102, the
演算式(1)のBVは追尾枠38内における輝度値のAPEX(Additive System of Photographic Exposure)値、i′、j′は、追尾枠38内の水平及び垂直方向それぞれにおける画素単位の座標を示している。この後、処理はステップS104に移行する。
ステップS104において、CPU28は、上述した画像SP1の後にエリアセンサ20から受け取った画像SP2(図3)を用いて、追尾演算を開始する。CPU28は、画像SP2を複数の画素ブロックに分割し、画素ブロック毎に演算式(1)を用いて特徴量C′を算出する。この後、処理はステップS106に移行する。
In Expression (1), BV is the APEX (Additive System of Photographic Exposure) value of the luminance value in the
In step S104, the
ステップS106において、CPU28は、特徴量C′を上述した特徴量Cと順次比較し、特徴量Cに最も近い特徴量C″の画素ブロックを新たな追尾枠40(図3)として決定する。そして、CPU28は、画像SP2に後続する画像を用いた追尾演算のために、特徴量C′をROM30に格納する。なお、同じ特徴量C″の画素ブロックが複数存在する場合には、CPU28は、追尾枠38の座標に最も近い画素ブロックを追尾枠40として決定する。この後、処理はステップS108に移行する。
In step S106, the
ステップS108において、CPU28は、露出決定位置42(図3)を設定する。CPU28は、追尾枠40から予め決められた位置ベクトル(x0、y0)の分だけ離れた位置を露出決定位置42として設定する。なお、位置ベクトル(x0、y0)は、ズームレンズ(図1)の焦点距離に応じて変動する。この後、処理はステップS110に移行する。
In step S108, the
ステップS110において、CPU28は、以下の演算式(2)を用いて露出条件を決定する。
BV+SV=AV+TV・・・(2)
演算式(2)のBVは露出決定位置42における輝度値のAPEX値、SVは撮像素子26の感度値のAPEX値、AVは絞り値のAPEX値、TVはシャッタ速度のAPEX値を示している。CPU28は、演算式(2)を満たすように絞り値AV、シャッタ速度TVを決定する。このように、露出決定位置42に合わせて露出条件を決定できる。この後、処理はステップS112に移行する。
In step S110, the
BV + SV = AV + TV (2)
In Expression (2), BV represents the APEX value of the luminance value at the
ステップS112において、CPU28は、撮影者によりレリーズスイッチが全押しされるのを待つ。レリーズスイッチの全押しが検出されると、処理はステップS114に移行する。レリーズスイッチの全押しが検出されないと、処理はステップS104に移行する。
ステップS114において、CPU28は、シャッタドライバ及び撮像素子ドライバをそれぞれ制御して、シャッタ24及び撮像素子26を駆動し、被写体像を撮像する。そして、撮影装置の第1の実施形態における露出条件決定動作が終了する。
In step S112, the
In step S114, the
以上、第1の実施形態では、追尾枠40から位置ベクトル(x0、y0)の分だけ離れた位置を露出決定位置42として設定することで、露出決定位置42に合わせて露出条件を決定できる。このため、撮影者が意図する被写体(例えば、人物の顔)に対して露出条件を決定できる。
図5及び図6は本発明の撮影装置の第2の実施形態を示している。この実施形態では、画像SP1(図2)に後続して、図5に示す画像SP2′が画像SP2(図3)に代えてエリアセンサ20(撮像手段)から出力される。
As described above, in the first embodiment, the exposure condition can be determined according to the
5 and 6 show a second embodiment of the photographing apparatus of the present invention. In this embodiment, following the image SP1 (FIG. 2), an image SP2 ′ shown in FIG. 5 is output from the area sensor 20 (imaging means) instead of the image SP2 (FIG. 3).
図5に示す符号44は、画像SP2′内で追尾演算によって更新された新たな追尾枠(第1部分画像)、符号46は、図6で説明する顔検出演算によって被写体(この例では、人物の顔)の検出が行われる顔検出枠(顔画像)、符号48は、露出決定位置を示している。
図6は、撮影装置の第2の実施形態における露出条件決定動作を示している。この実施形態では、CPU28が実行するためにROM30に格納されているプログラムが、画像処理装置の第1の実施形態と相違する。図6は、第1の実施形態(図4)のステップS106がステップS200〜S208に置き換えられた点を除き、図4と同じである。
FIG. 6 shows an exposure condition determination operation in the second embodiment of the photographing apparatus. In this embodiment, the program stored in the
上述した図4と同じ処理については、詳細な説明を省略する。また、図6に示す動作は、CPU28(抽出手段、追尾手段、顔抽出手段及び決定手段)がROM30に格納されたプログラムを実行することによって実現される。
まず、ステップS100〜S106が実行され、画像SP2′を用いて追尾枠44(図5)が決定された後、ステップS200に移行する。
Detailed description of the same processing as in FIG. 4 described above will be omitted. 6 is realized by the CPU 28 (extracting means, tracking means, face extracting means, and determining means) executing a program stored in the
First, steps S100 to S106 are executed, and after the tracking frame 44 (FIG. 5) is determined using the image SP2 ′, the process proceeds to step S200.
ステップS200において、CPU28は、画像SP2′を用いて顔検出演算を開始する。CPU28は、画像SP2′を顔検出の基準となるテンプレートと同じサイズの画素ブロックに分け、各画素ブロックとテンプレートとの色相値の差分値を画素毎に算出する。この後、処理はステップS202に移行する。
ステップS202において、CPU28は、色相値の差分値が予め決められた閾値以下であるか否かを判定する。差分値が閾値以下であること、すなわち、顔検出が成功したことを検出すると、処理はステップS204に移行する。一方、差分値が閾値を超えること、すなわち、顔検出が失敗したことを検出すると、処理はステップS210に移行する。
In step S200, the
In step S202, the
ステップS204において、CPU28は、色相値の差分値が予め決められた閾値以下である画素ブロックを顔検出枠46(図5)として検出する。この後、処理はステップS206に移行する。
ステップS206において、CPU28は、顔検出枠46の中心の座標を露出決定位置48(図5)として設定する。この後、処理はステップS208に移行する。
In step S <b> 204, the
In step S206, the
ステップS208において、CPU28は、追尾枠44から顔検出枠46に至るベクトルを位置ベクトル(x0′、y0′)として設定し、ROM30に格納する。この後、処理はステップS108〜S112が実行され、撮影装置の第2の実施形態における露出決定動作が終了する。
一方、ステップS202で、顔検出が失敗したことが検出された場合、ステップS210において、CPU28は、図4のステップS108と同様に、追尾枠44から位置ベクトル(x0′、y0′)の分だけ離れた位置を露出決定位置として設定する。なお、この位置ベクトル(x0′、y0′)は、顔検出の成功時にCPU28により設定された位置ベクトルである。このため、顔検出が失敗した場合であっても、顔検出枠46の中心の座標を露出決定位置として推定できる。この後、処理はステップS108〜S112が実行され、撮影装置の第2の実施形態における露出決定動作が終了する。
In step S <b> 208, the
On the other hand, if it is detected in step S202 that the face detection has failed, in step S210, the
以上、第2の実施形態では、第1の実施形態と同様な効果を得ることができる。更に、顔検出が失敗した場合であっても、顔検出枠46の中心の座標を露出決定位置として推定できる。このため、撮影者が意図する被写体(例えば、人物の顔)に合わせて露出条件を決定できる。
なお、上述した第1及び第2の実施形態では、露出決定位置に合わせて絞り値AV及びシャッタ速度TVが決定される例について述べた。本発明はかかる実施形態に限定されるものではない。露出決定位置に対して、フォーカスレンズによる焦点合わせや閃光発光部23の調光、あるいは、ホワイトバランスの設定等が行われるものでもよい。
As described above, in the second embodiment, the same effect as that of the first embodiment can be obtained. Furthermore, even when face detection fails, the coordinates of the center of the
In the above-described first and second embodiments, the example in which the aperture value AV and the shutter speed TV are determined in accordance with the exposure determination position has been described. The present invention is not limited to such an embodiment. Focusing by a focus lens, dimming of the flash
上述した第1及び第2の実施形態では、カメラ100としてデジタルカメラが用いられる例について述べた。本発明は、かかる実施形態に限定されるものではない。カメラ100として銀塩フィルム式のカメラが用いられるものでもよい。
上述した第2の実施形態では、CPU28は、顔検出の失敗時に、位置ベクトル(x0′、y0′)に基づいて、図5に示す顔検出枠46の中心の座標を露出決定位置として推定する例について述べた。本発明はかかる実施形態に限定されるものではない。CPU28は、図5に示す画像SP2′内における追尾演算の失敗時に、上述の位置ベクトル(x0′、y0′)に基づいて追尾枠44の位置を露出決定位置として推定するものでもよい。この推定により、追尾演算が失敗した場合であっても、撮影者の意図する被写体(この例では、人物の衣服)に合わせて露出条件を決定できる。
In the first and second embodiments described above, an example in which a digital camera is used as the
In the second embodiment described above, the
以上、本発明について詳細に説明してきたが、上記の実施形態及びその変形例は発明の一例に過ぎず、本発明はこれに限定されるものではない。本発明を逸脱しない範囲で変形可能であることは明らかである。 As mentioned above, although this invention was demonstrated in detail, said embodiment and its modification are only examples of this invention, and this invention is not limited to this. Obviously, modifications can be made without departing from the scope of the present invention.
本発明は、追尾や顔検出等の画像認識機能を備えた撮影装置に適用される。 The present invention is applied to a photographing apparatus having an image recognition function such as tracking and face detection.
10…クイックリターンミラー、12…ファインダスクリーン、14…ペンタダハプリズム、16…ハーフミラー、18…再結像光学系、20…エリアセンサ、22…接眼レンズ、23…閃光発光部、24…シャッタ、26…撮像素子、28…CPU、30…ROM、32…レンズ系、34…絞り、100…カメラ、102…カメラ本体、102a…レンズマウント、104…撮影レンズ
DESCRIPTION OF
Claims (4)
前記撮像手段により取得された画像から、予め決められた領域にある第1部分画像を抽出する抽出手段と、
前記撮像手段により取得された画像において前記第1部分画像から所定のベクトルだけ離れた領域にある第2部分画像に合わせて撮影条件を決定する決定手段とを備えることを特徴とする撮影装置。 Imaging means for obtaining an image of the subject image before photographing the subject image;
Extraction means for extracting a first partial image in a predetermined region from the image acquired by the imaging means;
An imaging apparatus comprising: a determination unit that determines an imaging condition in accordance with a second partial image in a region separated from the first partial image by a predetermined vector in the image acquired by the imaging unit.
前記抽出手段によって抽出される前記第1部分画像に基づいて追尾処理を行う追尾手段を備えることを特徴とする撮影装置。 The imaging device according to claim 1,
An imaging apparatus comprising: tracking means for performing tracking processing based on the first partial image extracted by the extraction means.
前記撮像手段により取得された画像から、前記被写体像である人物の顔に対応する顔画像を抽出する顔抽出手段を備え、
前記ベクトルは、前記抽出手段によって抽出される前記第1部分画像と前記顔抽出手段によって抽出された顔画像とを結ぶ位置ベクトルであることを特徴とする撮影装置。 The imaging device according to claim 2,
A face extracting means for extracting a face image corresponding to the face of the person as the subject image from the image acquired by the imaging means;
The imaging apparatus according to claim 1, wherein the vector is a position vector connecting the first partial image extracted by the extracting unit and the face image extracted by the face extracting unit.
前記抽出手段もしくは前記顔抽出手段は、前記第1部分画像または前記顔画像の何れか一方の抽出を失敗したときに前記ベクトルに基づいて他方の抽出を実行することを特徴とする撮影装置。 In the imaging device according to claim 3,
The imaging apparatus according to claim 1, wherein the extraction unit or the face extraction unit executes the extraction of the other based on the vector when the extraction of either the first partial image or the face image fails.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005376462A JP4670635B2 (en) | 2005-12-27 | 2005-12-27 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005376462A JP4670635B2 (en) | 2005-12-27 | 2005-12-27 | Imaging device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007180850A true JP2007180850A (en) | 2007-07-12 |
JP2007180850A5 JP2007180850A5 (en) | 2009-02-26 |
JP4670635B2 JP4670635B2 (en) | 2011-04-13 |
Family
ID=38305564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005376462A Expired - Fee Related JP4670635B2 (en) | 2005-12-27 | 2005-12-27 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4670635B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009290519A (en) * | 2008-05-29 | 2009-12-10 | Canon Inc | Camera |
JP2009300920A (en) * | 2008-06-17 | 2009-12-24 | Samsung Digital Imaging Co Ltd | Imaging apparatus and imaging method |
JP2013157812A (en) * | 2012-01-30 | 2013-08-15 | Olympus Imaging Corp | Image processing apparatus and image processing method |
JP2013162329A (en) * | 2012-02-06 | 2013-08-19 | Sony Corp | Image processing apparatus, image processing method, program, and recording medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187455A (en) * | 1992-12-15 | 1994-07-08 | Sharp Corp | Face area extracting device for animation picture |
JP2001162011A (en) * | 1999-12-08 | 2001-06-19 | Daikoku Denki Co Ltd | Game management system |
JP2004234689A (en) * | 2004-04-05 | 2004-08-19 | Konica Minolta Holdings Inc | Face extracting method |
JP2005086682A (en) * | 2003-09-10 | 2005-03-31 | Omron Corp | Object decision device |
JP2005092639A (en) * | 2003-09-18 | 2005-04-07 | Digital Fashion Ltd | Image processing device, method and program and recording medium for recording this program |
JP2005292972A (en) * | 2004-03-31 | 2005-10-20 | Advanced Telecommunication Research Institute International | Object recognizing device |
-
2005
- 2005-12-27 JP JP2005376462A patent/JP4670635B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187455A (en) * | 1992-12-15 | 1994-07-08 | Sharp Corp | Face area extracting device for animation picture |
JP2001162011A (en) * | 1999-12-08 | 2001-06-19 | Daikoku Denki Co Ltd | Game management system |
JP2005086682A (en) * | 2003-09-10 | 2005-03-31 | Omron Corp | Object decision device |
JP2005092639A (en) * | 2003-09-18 | 2005-04-07 | Digital Fashion Ltd | Image processing device, method and program and recording medium for recording this program |
JP2005292972A (en) * | 2004-03-31 | 2005-10-20 | Advanced Telecommunication Research Institute International | Object recognizing device |
JP2004234689A (en) * | 2004-04-05 | 2004-08-19 | Konica Minolta Holdings Inc | Face extracting method |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009290519A (en) * | 2008-05-29 | 2009-12-10 | Canon Inc | Camera |
JP2009300920A (en) * | 2008-06-17 | 2009-12-24 | Samsung Digital Imaging Co Ltd | Imaging apparatus and imaging method |
KR101533275B1 (en) * | 2008-06-17 | 2015-07-02 | 삼성전자주식회사 | Photographing apparatus |
JP2013157812A (en) * | 2012-01-30 | 2013-08-15 | Olympus Imaging Corp | Image processing apparatus and image processing method |
JP2013162329A (en) * | 2012-02-06 | 2013-08-19 | Sony Corp | Image processing apparatus, image processing method, program, and recording medium |
US20140247374A1 (en) | 2012-02-06 | 2014-09-04 | Sony Corporation | Image processing apparatus, image processing method, program, and recording medium |
US10225462B2 (en) | 2012-02-06 | 2019-03-05 | Sony Corporation | Image processing to track face region of person |
Also Published As
Publication number | Publication date |
---|---|
JP4670635B2 (en) | 2011-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5247076B2 (en) | Image tracking device, focus adjustment device, and imaging device | |
JP4998308B2 (en) | Focus adjustment device and imaging device | |
JP4893334B2 (en) | Image tracking device and imaging device | |
US8743209B2 (en) | Image pickup apparatus and method for controlling the same | |
JP4670635B2 (en) | Imaging device | |
JP2006195037A (en) | Camera | |
JP2017139646A (en) | Imaging apparatus | |
JP5073602B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP4888249B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2024003084A (en) | Photography equipment | |
JP2006301172A (en) | Imaging apparatus and method for controling imaging apparatus | |
JP2009229927A (en) | Autofocus adjustment device and imaging apparatus | |
JP2006301172A5 (en) | ||
JP5359150B2 (en) | Imaging device | |
JP2009284071A (en) | Image analyzer, and imaging apparatus | |
JP4748023B2 (en) | camera | |
JP6699679B2 (en) | Imaging device | |
JP5245644B2 (en) | Exposure calculator | |
JP2010028219A (en) | Photographing apparatus | |
JP2010079201A (en) | Focus detecting device, and image capturing apparatus | |
JP2008172368A (en) | Imaging apparatus, control method thereof, program and storage medium | |
JP2005006217A (en) | Digital single lens reflex camera | |
JP5321310B2 (en) | Imaging device | |
JP2018166326A (en) | Electronic apparatus | |
JP2008103809A (en) | Photographing device, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110103 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4670635 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140128 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140128 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |