JP3414492B2 - Eye-gaze detection camera and printer - Google Patents
Eye-gaze detection camera and printerInfo
- Publication number
- JP3414492B2 JP3414492B2 JP10539294A JP10539294A JP3414492B2 JP 3414492 B2 JP3414492 B2 JP 3414492B2 JP 10539294 A JP10539294 A JP 10539294A JP 10539294 A JP10539294 A JP 10539294A JP 3414492 B2 JP3414492 B2 JP 3414492B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- pupil
- detection
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Camera Data Copying Or Recording (AREA)
- Projection-Type Copiers In General (AREA)
- Automatic Focus Adjustment (AREA)
Description
【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、撮影者の眼からの情報
(視線情報と瞳孔大きさ情報)を検出し、当該情報をフ
ィルムに記録し、プリント時に該情報を基に画像変換を
行い、綺麗な写真を作成する視線検出カメラ及びプリン
タ装置に関する。
【0002】
【従来の技術】従来、カメラへの各種情報の入力は、例
えばダイアル、釦等によって行われており、入力情報が
増加するに従って操作環境は煩雑になっている。例え
ば、ファインダを覗く撮影者の視線方向を検出し、該視
線情報よりカメラに情報入力する技術は、特開昭63−
194237号公報、特開平3−87818号公報等に
より多数開示されている。
【0003】また、検出方式等においても角膜,虹彩,
瞳孔,強膜(白目)等のどれかを用いて検出する方法が
多数開示されている(特開平1−160537号公報、
特開平2−206425号公報等)。
【0004】さらに、視線情報を記録して、視線情報を
基にプリント時に視線情報位置(主要被写体)を綺麗に
焼き付ける方法が開示されている(特開平4−1343
30号公報、特開平5−158132号公報)。また、
ディジタル画像処理においては階調変換処理等は一般的
に行われている。
【0005】
【発明が解決しようとする課題】前述の如く、画像処理
を基に最適な画像を再現する技術は一般に普及してい
る。しかしながら、最適画像を作成する担当者が撮影者
と異なる場合、どの部分の階調を変更するかの判断がで
きなく、最適な処理ができない。
【0006】また、複数の主要被写体が存在する場合、
視線情報をフィルムに残して最適に処理しようとして
も、階調処理等行うことなく実現しても最適な画像を提
供することができない。さらに、注視している時の眼の
様子によって得られる画像は異なったものになる場合が
多い。
【0007】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、撮影者の視線情報をフィ
ルムに記録し、該フィルムの情報を基に後処理にて最適
な画像を復元することにある。
【0008】
【課題を解決するための手段】上記目的を達成するため
に、本発明の視線検出カメラは、撮影者の眼の動きを検
出する視線検出手段と、この視線検出手段によって検出
された上記撮影者の眼の位置情報に基づいて繰り返し主
要被写体を検出する主要被写体検出手段と、撮影者の瞳
孔の大きさを検出する瞳孔検出手段と、上記主要被写体
検出手段によって検出された主要被写体についての露出
に関する情報、及び上記瞳孔検出手段によって検出され
た瞳孔の大きさに関する情報をフィルム上またはフィル
ムパトローネ上の記録媒体に記録する情報記録手段と、
を具備し、上記フィルム上に露光された被写体像は、カ
メラ外部に設けられたプリンタ装置の画像読取手段によ
りイメージ信号に変換され、上記イメージ信号は、上記
プリンタ装置の階調変換手段において上記記録媒体に記
録された情報に基づいて主要被写体を適正にプリントす
るように上記イメージ信号の階調を変換することに用い
られることを特徴とする。
【0009】
【0010】
【0011】
【作用】即ち、本発明の視線検出カメラでは、視線検出
手段は撮影者の眼の動きを検出し、主要被写体検出手段
は該視線検出手段によって検出された上記撮影者の眼の
位置情報に基づいて繰り返し主要被写体を検出し、瞳孔
検出手段は撮影者の瞳孔の大きさを検出し、情報記録手
段は上記主要被写体検出手段によって検出された主要被
写体についての露出に関する情報、及び上記瞳孔検出手
段によって検出された瞳孔の大きさに関する情報をフィ
ルム上またはフィルムパトローネ上の記録媒体に記録す
る。そして、特に、上記フィルム上に露光された被写体
像は、カメラ外部に設けられたプリンタ装置の画像読取
手段によりイメージ信号に変換され、上記イメージ信号
は、上記プリンタ装置の階調変換手段において上記記録
媒体に記録された情報に基づいて主要被写体を適正にプ
リントするように上記イメージ信号の階調を変換するこ
とに用いられる。
【0012】
【0013】
【0014】
【実施例】先ず本発明の実施例について説明する前に、
本発明の実施例で採用する視線検出の原理について説明
する。視線方向を検出する方法としては種々の方法が挙
げられるが、ここではカメラに適用できる方法として既
に当業技術関係者においては良く知られている第1プル
キンエ像と称される角膜反射像と眼底の反射像、又は虹
採のエッジを用いて検出する方法について簡単に説明す
る。尚、構造的説明は既に公知である為、ここでは省略
する。
【0015】先ず図2には略光軸より投光された光束の
眼からの反射光の受光出力の様子を示し説明する。不図
示の眼球90に光を投光し、その反射像をとらえると受
光出力の高い第1プルキンエ像は反射光量が弱く反射像
のできる位置が異なる為、検出することは難しい。
【0016】そして、眼球90に光を投光した時の眼底
からの反射光95bにより眼底像が瞳孔の周像である虹
採エッジ94のシルエットとして検出される。この眼底
からの反射像95bは第1プルキンエ像95aと共に図
2に示してあるが、この2つの像を用いて視線方向を検
出する。尚、符号91は虹採、92は強膜(白目)、9
3は瞳孔、94は虹採エッジをそれぞれ示している。
【0017】次に図3には眼球の回転による検出像の変
化の様子を示し説明する。眼球90の光軸98と眼に投
光する光束とが平行である場合、図3(a)に示すよう
に、眼底像95bの中心即ち瞳孔中心と第1プルキンエ
像95aの中心が一致している。そして、眼球90が回
転した場合には、図3(b)に示すように光軸98が眼
球90の回転中心90cを中心に回転している。
【0018】この場合、眼底像95bの中心は眼からの
反射光を受光するセンサ画素列上の異なった位置に受光
できる。さらに、第1プルキンエ像95aの中心は眼底
像95bの中心とも相対的に異なる位置に受光する。こ
れは、角膜の前面に持つ曲面の中心が眼球の回転中心と
異なる為である。
【0019】従って、この2つの像のセンサ画素列に対
する絶対位置のずれと上記2つの像の相対的なずれよ
り、ファインダを覗く撮影者の眼球90の回転量とシフ
ト量を求めることができ、更には撮影者がどこを見てい
るか判別することができる。本発明では、視線検出像か
ら角膜反射像95a又は眼底反射像95bの少なくとも
一方を用いて検出する。
【0020】次に図4には眼球中心が固定されるような
場合の回転と角膜反射95aと眼底反射95bの様子を
示し説明する。眼球中心が固定されるならば眼底反射9
5bの重心位置ix、角膜反射95aの重心位置pxの
み又は両方を含めた重心位置を検出すれば回転角は検出
できる。そして、図中、pxは角膜反射95aの重心位
置、ixは眼底反射95bの重心位置を示している。
【0021】また、図4に示す眼底反射は一般に眼底か
らの反射光が多い所謂「赤目状態」である。明るい状態
で虹採が絞られた場合又は反射光が受光系に戻らない場
合である上記赤目状態でない場合には眼底反射95bの
出力はさらに低下する。尚、ファインダ中央から見た場
合、図4(a)は回転角0(基準)で中央、図4(b)
は回転角負で左側、図4(c)は回転角正で右側を見て
いることになる。
【0022】次に図5には眼球のシフトと角膜反射95
aと眼底反射95bの様子を示し説明する。眼底反射9
5bの重心位置ix、角膜反射95aの重心位置pxの
み又は両方を含めた重心位置を検出すればおおまかなシ
フト量は検出できる。
【0023】そして、図中、pxは角膜反射95aの重
心位置、ixは眼底反射95bの重心位置を示してい
る。また、先に示した図4と同様に、眼底反射は一般に
赤目状態であり、赤目状態でない場合には眼底反射95
bの出力は更に低下する。尚、ファインダ中央から見た
場合には、図5(a)はシフト0(基準)で中央、図5
(b)はシフト量負で左側、図5(c)はシフト量正で
右側を見ていることになる。一般に、1回のシャッタシ
ーケンス、即ち1stレリーズ付近から2ndレリーズ
までにおいては、眼のシフトは大きく変化することはな
く、相対的な動きと基準位置を検出することで撮影者が
見ようとする方向を知ることができる。また、基準位置
検出はシーケンス内で行うようにすると良い。
【0024】以下、前述したような原理に基づく本発明
の実施例について説明する。先ず図1には本発明の第1
の実施例に係る視線検出カメラ及びプリンタ装置の構成
を示し説明する。視線検出カメラ側においては、視線検
出部1と瞳孔径検出部2の出力は被写体検出部3の入力
に接続され、該被写体検出部3の出力はフィルム記録部
4の入力に接続される。そして、フィルム記録部4はフ
ィルムを介してプリンタ装置側に情報を伝達する。一
方、プリンタ装置では、画像読み取り部5及び情報読み
取り部6の出力は画像変換部7の入力に接続され、該画
像変換部7の出力は表示部8と出力部9の入力に接続さ
れている。
【0025】このような構成において、先ず視線検出カ
メラ側では、視線検出部1はファインダを覗いた撮影者
の視線方向を検出し、その情報を被写体検出部3に送
る。そして、瞳孔径検出部2は撮影者の瞳孔の大きさを
検出し、その情報を被写体検出部3に送る。被写体検出
部3は視線検出部1からの視線情報より1つ以上の主要
被写体を抽出し、瞳孔径検出部2からの瞳孔の大きさに
関する情報より対応する瞳孔径に関する情報を抽出す
る。フィルム記録部4は被写体検出部3にて検出された
1つ以上の主要被写体の情報と関連(主要被写体に対応
する瞳孔の大きさとその他の瞳孔の大きさに関する情
報)する瞳孔の大きさに関する情報をフィルムに記録
(磁気記録、光学式(バーコードの写し込み)記録)す
る。
【0026】こうしてフィルムが現像処理され、プリン
タ装置に渡されると、プリンタ装置側において、画像読
み取り部5は画像情報をフィルムスキャナにて読み取り
画像情報を画像変換部7に送る。情報読み取り部6はフ
ィルムに記録(磁気記録までは光学記録)された情報
(視線により検出された主要被写体情報と瞳孔の大きさ
情報)を読み取り、主要被写体情報を画像変換部7に送
る。画像変換部7は画像情報と主要被写体情報と瞳孔の
大きさ情報より階調変換した画像を表示部8に表示する
(変換する前の画像も表示可能)と共に出力部9に画像
情報を送る。そして、出力部9は変換画像が確認された
後に出力する。
【0027】以下、図6のフローチャートを参照して、
視線検出カメラ側のシーケンスを説明する。視線検出カ
メラ側のシーケンス開始すると、視線検出部1が視線情
報の処理(視線検出と1つ以上の主要被写体)を行い
(ステップS1)、瞳孔径検出部2が瞳孔の大きさ検出
の処理を行う(ステップS2)。そして、被写体検出部
3がAF、露出に関するシーケンスを行い(ステップS
3)、フィルムの巻き上げ(又は巻き戻し)に同期して
フィルム記録部4が視線により検出された1つ以上の主
要被写体情報と瞳孔の大きさ情報を記録し(ステップS
4)、本シーケンスを終了する(ステップS5)。
【0028】次に図7のフローチャートを参照してプリ
ンタ側のシーケンスを説明する。プリンタ装置側のシー
ケンス開始すると、情報読み取り部6がフィルム、即ち
現像処理終了したフィルムに記録された1つ以上の主要
被写体情報と瞳孔の大きさを読み込み(ステップS1
1)、画像読み取り部5が画像情報の読み込みを行う
(ステップS12)。そして、この読み取った画像情報
の表示と主要被写体の指示表示をフラッシング、丸印等
により行い(ステップS13)、画像変換部7が表示画
像に対して階調変換の処理と確認を行い(ステップS1
4)、表示部8が変換された画像を表示する(ステップ
S15)。この確認後、出力部9より画像を出力し(ス
テップS16)、本シーケンスを終了する(ステップS
17)。
【0029】尚、確認にてNGの場合等に手動にて階調
変換の特性を変更するようにしてもよい。更に表示部8
と出力部9の画像階調は合わせ込みをしてもよい。フィ
ルムに記録される情報が主要被写体情報のみの場合、1
つ以上の主要被写体位置の画像をスキャンしてフィルム
の各主要被写体位置の濃度より階調を決定し、瞳孔の大
きさ情報のみの場合、瞳孔の大きさ変化量とフィルムの
各ブロック(画面を複数のブロックに分割)の濃度に応
じて階調を決定するようにしてもよい。また、スキャナ
のダイナミックレンジを確保するためにスキャナの積分
時間を変えて複数回スキャンし、積分時間にて補正した
画像を用いて処理するとよい。
【0030】次に図8には本発明の第1の実施例を更に
具現化した第2の実施例に係る視線検出カメラ及びプリ
ンタ装置の構成を示し説明する。尚、この第2の実施例
では1次元の視線検出にて実現しているが、2次元的に
検出すれば更に精度が向上することは勿論である。
【0031】この図8に示されるように、視線検出カメ
ラ側では、測光部23の出力はKCPU21(カメラ側
CPU)の入力に接続され、I/F回路22はLED回
路28、ラインセンサ24、KCPU21に接続され、
LED回路28はI/F回路22、ファインダ光学系2
5に接続されている。さらに、ラインセンサ24はI/
F回路22、ファインダ光学系25に接続され、ファイ
ンダ光学系25はLED回路28、ラインセンサ24と
光学的に接続されると共に撮影者の眼と撮影シーンとも
光学的に接続されている。そして、巻き上げ・巻き戻し
回路26,磁気回路27はKCPU21とフィルム29
に接続されている。
【0032】一方、プリンタ側では、磁気読み取り回路
32はフィルム30(現像済み)に接続され、フィルム
スキャナ33はフィルム30、PCPU31(プリンタ
側のCPU)と画像メモリ34に接続される。表示回路
35は画像メモリ34とPCPU31に接続される。出
力画像メモリ36は画像メモリ34、PCPU31とプ
リンタ部37に接続される。尚、AFに関しては公知の
マルチAF(例えばスキャンAF:特開平4−3248
07号公報等に記載)を用いるとよい。
【0033】このような構成にて、カメラ側において、
測光部23は測光情報をKCPU22に送る。視線検出
のブロックはI/F回路22がLED回路28とライン
センサ24を制御すると共にKCPU21と相互に情報
通信を行い、LED回路28はファインダ光学系25の
一部を介して光束を眼に投光し、ラインセンサ24は眼
からの反射光束をファインダ光学系25を介して取り込
む。KCPU22は視線検出ブロックからの眼の画像情
報より視線方向と瞳孔の大きさに関する情報を抽出し、
その情報より主要被写体に関する情報を1つ以上抽出
し、瞳孔の大きさ情報・測光情報・露出情報と共に磁気
回路27に伝達し、巻き上げ・巻き戻し回路26を制御
して磁気信号にてフィルム29に記録する。
【0034】一方、プリンタ装置側において、磁気読み
取り装置32はフィルム30より磁気にてフィルム30
に記録されたカメラからの情報を読み出し該情報をPC
PU31に送る。フィルムスキャナ33はPCPU31
の制御信号(測光情報と露出情報より最適なスキャン速
度を設定)を受けフィルム30より画像情報を読み取り
画像メモリ34に送る。PCPU31は主要被写体情報
と画像に基づいて主要被写体情報を表示回路35に送る
と共に、磁気読み取り装置の情報に基づいて階調変換
(テーブル変換、関数変換)を行い、処理した画像を表
示確認すると共に、作成した画像を出力画像メモリ34
に送る。表示回路35は画像メモリ34に格納された画
像とPCPU31からの主要被写体情報によって画像表
示と主要被写体表示を行う。出力画像メモリ36は新た
に作成された画像を格納する。プリンタ装置37は作成
された画像を出力する。
【0035】ここで、図9には視線検出光学系の詳細な
構成を示し説明する。図9(a)には光学的配置を示
す。検出センサは蓄積型ラインセンサを用いて眼からの
反射光を検出する。投光光源にはLED0,LED1の
2ケを用い、LED0は検出ラインセンサ上に赤目像が
発生するように配置し、LED1は検出ラインセンサ上
に赤目像が発生しないようにLED0の投光光軸に対し
て2〜5゜の角度を持って投光するように配置する。こ
のLED0,LED1より投光された光はビームスプリ
ッタを介して眼に投光され、眼からの反射光は再度ビー
ムスプリッタを介して視線光学系、ラインセンサに導か
れる。
【0036】図9(b),(c)はLED0,LED1
を投光した場合の眼の像の様子を示す。詳細には、図9
(b)はLED0からの投光でプルキンエ像と赤目像が
検出された様子を示しており、図9(c)はLED1か
らの投光でプルキンエ像はあるが赤目像は検出できない
様子を示している。
【0037】尚、LED0,LED1によってできるプ
ルキンエ像の位置は、x軸方向には同じ位置にできるよ
うにLED0,LED1を配置する(検出センサ上にて
プルキンエ像の検出方向に対して直交する位置に光源を
配置)。
【0038】次に図10には図9(b),(c)のライ
ンセンサ上の信号を示し説明する。図10(c)の像は
図10(a)の信号と図10(b)の信号の差分処理を
行った結果を示しており、赤目像のみが抽出されている
のが判る。従って、この図10(c)に示される像より
赤目の重心(瞳孔の重心)位置と最大値(プルキンエ像
位置)が検出され、視線方向が判定でき、更には赤目の
両端エッジにて瞳孔の大きさを検出することもできる。
【0039】以下、図11のフローチャートを参照して
第2の実施例における視線検出カメラ側のシーケンスを
説明する。カメラシーケンスを開始すると、シーケンス
のイニシャライズを行う。即ち、ここでは変数iを0に
設定し、フォーカスポイントを中央に設定する(ステッ
プS21)。続いて、1stレリーズの判定を行う(ス
テップS22)。
【0040】そして、lstレリーズスイッチがOFF
の場合にはステップS31へ移行し、lstレリーズス
イッチがONの場合には、サブルーチン“視線検出1”
を実行してlstレリーズに同期した視線検出を行う
(ステップS23)。
【0041】即ち、図12のフローチャートに示される
ように、サブルーチン“視線検出1”を開始すると、後
述するサブルーチン“視線検出”を実行し(ステップS
32)、視線ブロックデータをメモリE(i)、瞳孔の
大きさをメモリP(i)に格納し(ステップS33)、
メインルチンにリターンする(ステップS34)。
【0042】続いて、サブルーチン“視線検出2”を実
行して連続した視線検出を行う(ステップS24)。即
ち、図13のフローチャートに示されるように、サブル
ーチン“視線検出2”を開始すると、変数iをインクリ
メントした後(ステップS35)、後述するサブルーチ
ン“視線検出”を実行し(ステップS36)。視線ブロ
ックデータをメモリE(i)、瞳孔の大きさをメモリP
(i)に格納し(ステップS37)、メインルーチンに
リターンする(ステップS38)。
【0043】次いで、KCPU21は、再度lstレリ
ーズの判定を行い(ステップS25)、lstレリーズ
スイッチがOFFの場合にはステップS31へ移行し、
lstレリーズスイッチがONの場合には2ndレリー
ズの判定を行う(ステップS26)。そして、2ndレ
リーズスイッチがOFFの場合にはステップS24に戻
り、2ndレリーズスイッチがONの場合にはマルチス
キャン測距を行う。ここでは、先にサブルーチン“視線
検出1”にて検出された情報に応じてサブルーチン“測
距”を実行し測距ポイントを設定する(ステップS2
7)。
【0044】即ち、図20のフローチャートに示される
ように、サブルーチン“測距”を開始するとマルチ測距
を行い(ステップS121)、データE(0)の評価を
行う(ステップS122)。そして、E(0)=0でな
い場合には、視線データを用いない公知の評価AFのア
ルゴリズムにてAFポイントを設定し(ステップS12
3)、E(0)=0の場合には、E(0)データの測距
ブロックの情報にてAFポイントを設定する(ステップ
S124)。さらに、AFポイントの測距情報にてレン
ズ駆動量を算出し(ステップS125)、本シーケンス
を抜けてメインルーチンに戻る(ステップS126)。
【0045】次いで、KCPU21は、撮影シーケンス
(レンズ駆動、露出決定、露光)を行い(ステップS2
8)、巻き上げ開始し(ステップS29)、巻き上げに
同期してフィルム29に情報記録し(ステップS3
0)、本シーケンスを終了する(ステップS31)。
【0046】このステップS30で実行されるサブルー
チン“情報記録”のシーケンスは図17に示される。即
ち、サブルーチン“情報記録”を開始すると、lstレ
リーズから2ndレリーズまでの期間の眼の動きの検出
データE(i)より各ブロック毎のヒストグラム処理と
検出回数での正規化を行い(ステップS81)、所定値
以上のブロックより上位3ブロックを選択しブロック情
報を出力する(ステップS82)。そして、対応するブ
ロックの瞳孔の大きさ情報を出力し(ステップS8
3)、その他の瞳孔の大きさ情報を出力し(ステップS
84)、本シーケンスを抜ける(ステップS85)。
【0047】次に図14のフローチャートを参照して上
記サブルーチン“視線検出”のシーケンスを説明する。
サブルーチン“視線検出”を開始すると、イニシャライ
ズを行い(ステップS41)、センサのリセットを行い
LED0を投光し(ステップS42)、センサ信号D0
を検出する(ステップS43)。続いて、センサのリセ
ットを行いLED1を投光し(ステップS44)、セン
サ信号D1を検出する(ステップS45)。そして、こ
の検出信号D0,D1にて視線を検出する信号処理を行
い(ステップS46)、本シーケンスを抜ける(ステッ
プS47)。
【0048】上記ステップS45では、図15のフロー
チャートに示されるように、サブルーチン“信号処理”
を開始すると、検出したデータD0,D1に所定の重み
付けを行い、データD(D=a×D0−b×D1;a,
b所定の変数)を作成する(ステップS51)。そし
て、データDにて重心位置xdを検出し(ステップS5
2)、データD0よりMAX値位置(MAX値が複数あ
る場合はMAXデータ群の重心位置)x0とMAX値M
0を検出し(ステップS53)、データD1よりMAX
値位置(MAX値が複数ある場合はMAXデータ群の重
心位置)x1とMAX値M1を検出する(ステップS5
4)。
【0049】続いて、x0,x1のズレ量の評価(眼の
動き量を評価)を行う(ステップS55)。そして、|
x0−x1|<εでない場合にはステップS62に移行
し、|x0−x1|<εの場合にはデータD0より平均
値Av0を求める(ステップS56)。次いで、データ
D0のMAX値M0と平均値Av0の差分を評価(kは
所定値)し(ステップS57)、M0−Av0>kでな
い場合にはステップS62へ移行し、M0−Av0>k
の場合にはデータD1より平均値Av1を求める(ステ
ップS58)。続いて、データD1のMAX値M1と平
均値Av1の差分を評価(kは所定値)し(ステップS
59)、M1−Av1>kでない場合にはステップS6
2へ移行し、M1−Av1>kの場合には検出信号Dよ
り瞳孔径dpを検出する(ステップS60)。
【0050】このステップS60で実行されるサブルー
チン“瞳孔径検出”のシーケンスは図16(a)に示さ
れる通りである。即ち、サブルーチン“瞳孔径検出”を
開始すると、検出データDの信号を所定の出力にて2値
化し(ステップS71)、図16(b)に示される如く
x軸方向に2値データの変化位置xf,xgを検出する
(ステップS72)。そして、瞳孔の大きさを測定(d
p=xg−xf)し(ステップS73)、本シーケンス
を抜ける(ステップS74)。
【0051】こうして図15のシーケンスに戻ると、検
出された赤目の重心位置xdとプルキンエ像位置x0よ
り検出ブロックを決定する(ブロックは1〜N)(ステ
ップS61)。一方、ステップS62では検出ブロック
を0(存在しないブロックNo)に設定し、本シーケン
スを抜ける(ステップS63)。
【0052】尚、ステップS55では、検出信号D0,
D1での眼の動きの判定を行っており、ステップS5
7,S59では、まばたきの判定を行っている。また、
ファインダ光学系に内面反射等のノズル信号源がある場
合、予めファインダの接眼側を遮光して各LEDを点灯
して検出したノズル信号をDd0,Dd1検出しておい
て、Dd=a×Dd0−b×Dd1(a,bは所定の変
数)とし、信号Dに検出信号とノイズ信号Ddの差分を
格納するとよい。
【0053】ここで、図18にはラインセンサの構成を
示し説明する。この図18(a)はラインセンサのブロ
ック構成図を示しており、BSは光電変換素子で構成さ
れている。そして、DBSはBSを遮光して暗電流の補
正用の基本ブロックである。さらに、シフトレジスタは
KCPU21からの制御信号にて各BSを駆動制御す
る。各BSはKCPU21の制御信号(T),(C)及
びBS自体が出力するモニタ信号(M)にて積分制御さ
れる。積分制御はピーク値検出(どれかのBSが所定レ
ベルに達したら積分を終了する信号を出力する)と時間
制御を行う。信号(M)はKCPU21に記録され信号
(T)として次の積分開始までホールドされCは信号を
保持する。さらに、眼の映像はシフトレジスタの信号に
応じて暗電流差分を消去し増幅後、KCPU21のA/
D回路に送られる。そして、積分時間制御は最も明るい
状態(赤目発生時)にて決定され、赤目非発生時の積分
時間は赤目発生時の積分時間で制御信号(T)で決定さ
れる。
【0054】さらに、図18(b)はBSの内部回路を
示す図である。PDで光電変換され積分制御ようのゲー
トG02を介してコンデンサCに蓄積され、ゲートG0
1はPD,CのリセットをG02と共に行う。ゲートG
03は読み出し増幅を行い、ゲートG04はシフトレジ
スタの信号に応じて信号を読み出す。そして、ダイオー
ドD01はピーク値検出を行う。
【0055】以下、図19のフローチャートを参照して
積分時間制御のシーケンスを説明する。積分シーケンス
を開始すると、センサやタイマをリセットし(ステップ
S101)、投光LED0の判定を行う(ステップS1
02)。そして、LED0投光の場合には積分開始と同
時にタイマをスタートする(ステップS103)。
【0056】続いて、タイマtの判定を行い(ステップ
S104)、t>td(tdは所定のリミット値)の場
合にはステップS108へ移行し、t>tdでない場合
には積分モニタ(ピーク値検出)信号の判定を行う(ス
テップS105)。
【0057】そして、モニタ信号OFFの場合にはステ
ップS104へ戻り積分の継続を行う。モニタ信号ON
の場合には積分終了し(ステップS106)、積分時間
tcをKCPU21で記録し(ステップS107)、信
号の読み出しを行い(ステップS113)、リターンす
る(ステップS114)。
【0058】上記ステップS102において、LED0
が投光されない場合には、積分スタートと同時にタイマ
ースタートする(ステップS109)。そして、積分モ
ニタ(ピーク値検出:モニタ判定レベルはステップS1
07より高く設定する)信号の判定を行い(ステップS
110)、モニタ信号ONの場合にはステップS108
へ移行し、モニタ信号OFFの場合にはタイマtの判定
を行う(ステップS111)。さらに、t>tcでない
場合には(ステップS111)、ステップS110へ戻
り積分を継続する。
【0059】一方、ステップS111にて、t>tcの
場合には積分を終了し、ステップS113へ移行する
(ステップS111、112)。上記ステップS108
では、信号が信頼性が低い場合(積分時間が予定以上に
長い:眼が存在しない、積分終了が予定以上に短い:眼
以外の強い反射がある)であり信号をリセットしてステ
ップS113へ移行する(ステップS108)。
【0060】尚、それぞれの積分の時間を判定して所定
時間内に積分時間が入っていない場合は信頼性が低いと
判定してデータを無効にしてもよい。次に図21のフロ
ーチャートにはプリンタ側のシーケンスを示し説明す
る。
【0061】プリンタシーケンスを開始するとPCPU
31はデータをイニシャライズし(ステップS20
1)、磁気読み取り回路32が磁気にて記録された情報
を読み込む(ステップS202)。そして、フィルムス
キャナ33が画像情報を読み込み、画像メモリ34に格
納し(ステップS203)、表示回路35に該情報に基
づいて情報と画像の表示を行う(ステップS204)。
さらに、PCPU31は画像の変換を行い(ステップS
205)、変換された画像を表示する(ステップS20
6)。そして、画像の確認を行い(ステップS20
8)、NGの場合にはパラメータの変更を行ってステッ
プS204へ戻り(ステップS207)、OKの場合に
は変換画像の出力を行い(ステップS209)、本シー
ケンスを抜ける(ステップS210)。
【0062】次に図22及び図23のフローチャートを
参照して、上記サブルーチン“画像変換”のシーケンス
を説明する。画像変換を開始すると、主要被写体位置の
画像ブロックの平均出力値(出力値の大きい方からK
0,K1,K2とする)と画面全体の平均出力値(K
a)を検出する(ステップS301)。次いで、主要被
写体の位置での瞳孔の平均値(大きい方からP0,P
1,P2とする)を検出し(ステップS302)、全体
の瞳孔径の平均値(Pa)を検出する(ステップS30
3)。
【0063】続いて、主要被写体位置の出力差を検出し
(ステップS304)、K0−K2<Kd(Kdは所定
の値)でない場合(主要被写間の明暗が大きい)には、
ステップS313へ移行する。
【0064】これに対して、K0−K2<Kdの場合に
は瞳孔径の変化を検出し(ステップS305)、P0−
P2<Pd(Pdは所定値)でない場合には、暗い部分
と明るい部分のレンジを広げる変換(図24(a)の
(4)参照)を行う(ステップS311)。このステッ
プS305にて、P0−P2<Pdの場合には瞳孔の平
均的大きさPaとの比較を行う(ステップS306,ス
テップS307)。
【0065】そして、P0−Pa≧Pv(Pvは所定
値)の場合には、第1の主要被写体のブロックの平均出
力値が変換出力レンジの中心よりやや下に来るように変
換(図24(a)の(3)参照)する(ステップS31
0)。さらに、−Pv>P0−Pa>Pvの場合には、
第1の主要被写体のブロックの平均出力値が変換出力レ
ンジの中心に来るように変換(図24(a)の(1)参
照)する(ステップS308)。また、−Pv≦P0−
Paの場合には第1の主要被写体のブロックの平均出力
値が変換出力レンジの中心よりやや上にくるように変換
(図24(a)の(2)参照)する(ステップS30
9)。
【0066】一方、上記ステップS304よりステップ
S313に移行すると、瞳孔径の変化を検出する。そし
て、P0−P2<Pd(Pdは所定値)でない場合には
P0のブロックを変換出力レンジ内に入れかつ暗い部分
と明るい部分のレンジを広げる変換(図24(b)の
(8)参照)を行う(ステップS319)。さらに、P
0−P2<Pdの場合には、瞳孔の平均的大きさPaと
の比較を行う(ステップS314,ステップS31
5)。そして、P0−Pa≧Pv(Pvは所定値)の場
合にはK0のブロックを変換出力レンジ内に入れ、且つ
明るい部分のレンジを広げる変換(図24(b)の
(7)参照)を行う(ステップS318)。さらに、−
Pv>P0−Pa>Pvの場合にはK0のブロックを変
換出力レンジに入る変換(図24(b)の(5)参照)
を行う(ステップS316)。また、−Pv≦P0−P
aの場合にはK0のブロックを変換出力レンジ内に入れ
且つ暗い部分のレンジを広げる変換(図24(b)の
(6)参照)を行う(ステップS317)。こうしてリ
ターンする(ステップS312)。
【0067】尚、図24は変換曲線を示し、括弧内の番
号は図22,23内の変換方式の番号に対応する。そし
て、変換は入力出力をテーブルにて変換出力にしてもよ
い。また、変換出力レンジは出力媒体にて決定される。
【0068】以上、本発明の実施例について説明した
が、本発明はこれに限定されることなく種々の改良、変
更が可能であることは勿論である。例えば、視線検出方
式はエリアセンサを用いて1画面よりプルキンエ像位置
と瞳孔エッジを抽出する方式を用いてもよく、またPS
Dセンサを用いて時分割にて瞳孔重心とプルキンエ像を
抽出する方式を用いてもよく、PSDの場合は瞳孔の大
きさを差分後の光量にて推定する。また、信頼性判定を
まばたき、目の動きにて行っているが、カメラと顔の接
触(カメラファインダに眼を押し付けている)の判定や
眼がね判定を組み合わせるとさらによい。さらに、視線
検出はAF,AE等のカメラのシーケンスと平行に行わ
れてもよい。
【0069】そして、主要被写体の抽出においても、視
線が連続して滞在した時間の長いブロック(視線位置)
から選択を行ってもよい。即ち、図25のフローチャー
トに示すように、イニシャライズを行った後(ステップ
S401)、変数iをインクリメントし(ステップS4
02)、前述のサブルーチン“視線検出”のシーケンス
を実行し、E(i−1)=E(i)でない場合において
(ステップS404)、MAX1<E(i−1)である
場合には、MAX1にJ(E(i−1))をストアし
(ステップS410)、MAXE1にE(i−1)をス
トアし(ステップS411)、ステップS412に移行
する。
【0070】そして、上記ステップS409にて、MA
X1<E(i−1)でない場合において、MAX2<E
(i−1)である場合には(ステップS414)、MA
X2にj(E(i−1))をストアし(ステップS41
5)、MAXE2にE(i−1)をストアし(ステップ
S416)、ステップS412に移行する。
【0071】さらに、ステップS414において、MA
X2<E(i−1)でない場合において、MAX3<E
(i−1)である場合には、MAX3にj(E(i−
1))をストアし(ステップS415)、MAXE3に
E(i−1)をストアし(ステップS416)、ステッ
プS412に移行する。上記ステップS417にて、M
AX3<E(i−1)でない場合には、ステップS41
2に移行する。
【0072】ステップS412では、J(E(i−
1))を0とし、J(E(i))=J(E(i))+1
とした後(ステップS405)、1stレリーズスイッ
チがOFFの場合にはシーケンスを終了する(ステップ
S413)。そして、1stレリーズスイッチ及び2n
dレリーズスイッチがオンされている場合にはリターン
する(ステップS408)。
【0073】一方、1stレリーズ時の視線ブロック
(視線位置)と2ndレリーズ時のブロック(視線位
置)の一方又は両方の重みを付けて(一層、主要被写体
に関係が深い場合が多い:回数または時間を大きくす
る)評価を行ってもよい。さらに、AF方式においても
エリアセンサを用いたパッシブタイプの2次元の広視野
AFを用いてもよく、更に数の少ない離散的なマルチA
Fを用いてもよい。また、画像変換方式は視線情報と瞳
孔の大きさ情報を用いるものであれば他の方式でも当然
よい。
【0074】さらに、サブルーチン“画像変換”におい
て、図26に示すように瞳孔の変化量にて通常の変換に
差をもたせるとよい(図27に変換特性の一例を示
す)。即ち、図26のフローチャートに示されるよう
に、主要被写体瞳孔径検出(P0,P1,P2,Pa)
を行い(ステップS501)、P0−P2<Pdである
場合にはそのまま、P0−P2<Pdでない場合には図
27に示される如く通常特性を破線で示される変更特性
に変換した後、リターンする(ステップS502〜S5
04)。
【0075】また、瞳孔の絶対値により変換方式を変え
てもよい。さらに、視線からの主要被写体情報のみの場
合図28に示すように主要被写体情報と対応する各ブロ
ックの平均出力と画面の平均出力にて変換を行ってもよ
い(図29に変換特性の一例を示す)。
【0076】即ち、図28のフローチャートに示される
ように、主要被写体ブロック出力検出(K0,K1,K
2)を行い、平均出力Kaを検出し、K0〜K2をM0
〜M2,Maに変換する(ステップS601〜S60
3)。そして、M0,M2とMmax,Mminの比較
を行い、該比較結果に基づいて図29に示される特性
(1)乃至(6)を選択する(ステップS605〜S6
15)。
【0077】この他、フィルムに情報記録は情報にヘッ
ダー信号を付けて内容を判定するとさらによい。例えば
(第一視線ブロックヘッダー信号)(ブロック位置)
(瞳孔平均径)(第二視線ブロックヘッダー信号)(ブ
ロック位置)(瞳孔平均径)(第三視線ブロックヘッダ
ー信号)(ブロック位置)(瞳孔平均径)(瞳孔径ヘッ
ダー)(瞳孔径1)(瞳孔径2)…(終了信号)の如く
である。
【0078】以上詳述したように、本発明によれば、現
状のカメラ構成にて、視線情報より抽出された主要被写
体と瞳孔の大きさ情報(一方だけでもよい)より階調を
整えた画像を得ることができる。
【0079】尚、本発明の上記実施態様によれば以下の
ごとき構成が得られる。
(1)カメラにおいて、撮影者の眼の動きを検出する視
線検出装置と、検出した所定期間の目の位置情報より主
要被写体を選択する被写体検出装置と、フィルムに主要
被写体情報を記録するフィルム記録装置と、フィルムの
情報を基に階調変換をするプリント装置と、を具備する
ことを特徴とするカメラシステム。
(2)上記(1)にて、視線検出装置は瞳孔からの反射
光と角膜の反射光とより視線方向を検出する。
(3)上記(1)にて、視線検出装置は瞳孔からの反射
光より視線の動きを検出する。
(4)上記(1)にて、視線検出装置は角膜の反射光よ
り視線の動きを検出する。
(5)上記(1)にて、被写体検出装置は所定期間内で
検出回数の多い位置から主要被写体を検出する。
(6)上記(1)にて、被写体検出装置は所定期間内で
連続滞在時間が長い位置から主要被写体を検出する。
(7)上記(1)にて、被写体検出装置は所定期間にお
いて1つ以上の主要被写体を検出する。
(8)カメラにおいて、撮影者の眼の動きを検出する視
線検出装置と、検出した所定期間の眼の位置情報より主
要被写体を選択する被写体検出装置と、撮影者の眼の瞳
孔の大きさを検出する瞳孔検出装置と、フィルムに主要
被写体情報と瞳孔情報を記録するフィルム記録装置と、
を具備することを特徴とするカメラシステム。
(9)上記(8)にて、視線検出装置は瞳孔からの反射
光と角膜の反射光とより視線方向を検出する。
(10)上記(8)にて、視線検出装置は瞳孔からの反
射光より視線の動きを検出する。
(11)上記(8)にて、視線検出装置は角膜の反射光
より視線の動きを検出する。
(12)上記(8)にて、被写体検出装置は所定期間内
で検出回数の多い位置から主要被写体を検出する。
(13)上記(8)にて、被写体検出装置は所定期間内
で連続滞在時間が長い位置から主要被写体を検出する。
(14)上記(8)にて、被写体検出装置は所定期間に
おいて1つ以上の主要被写体を検出する。
(15)上記(8)にて、瞳孔検出装置は視線検出装置
にて検出された信号を用いて行うことを特徴とする。
(16)上記(8)にて、瞳孔検出装置が検出する瞳孔
の大きさは赤目の大きさにて決定することを特徴とす
る。
(17)カメラにおいて、撮影者の眼の動きを検出する
視線検出装置と、検出した所定期間の眼の位置情報より
主要被写体を選択する被写体検出装置と、撮影者の眼の
瞳孔の大きさを検出する瞳孔検出装置と、フィルムに瞳
孔情報を記録するフィルム記録装置と、フィルムの情報
を基に階調変換をするプリント装置と、を具備すること
を特徴とするカメラシステム。
(18)上記(17)にて、視線検出装置は瞳孔からの
反射光と角膜の反射光より視線方向を検出する。
(19)上記(17)にて、視線検出装置は瞳孔からの
反射光より視線の動きを検出する。
(20)上記(17)にて、視線検出装置は角膜の反射
光より視線の動きを検出する。
(21)上記(17)にて、被写体検出装置は所定期間
内で検出回数の多い位置から主要被写体を検出する。
(22)上記(17)にて、被写体検出装置は所定期間
内で連続滞在時間が長い位置から主要被写体を検出す
る。
(23)上記(17)にて、被写体検出装置は所定期間
において1つ以上の主要被写体を検出する。
(24)上記(17)にて、瞳孔検出装置は視線検出装
置にて検出された信号を用いて行うことを特徴とする。
(25)上記(17)にて、瞳孔検出装置が検出する瞳
孔の大きさは赤目の大きさにて決定することを特徴とす
る。
(26)プリント装置において、フィルム(現像処理さ
れたもの)の映像を読み取る画像読み取り装置と、フィ
ルムに記録された主要被写体情報または瞳孔の大きさ情
報の一方又は両方を読み取る情報読み取り装置と、上記
情報読み取り装置の情報を基に画像の階調変換を行う画
像変換装置と、を具備することを特徴とするカメラシス
テム。
(27)上記(26)にて、カメラにて記録される情報
は少なくとも主要被写体の存在位置または撮影者の瞳孔
の大きさ情報の一方または両方を含んでいる。
(28)上記(26)にて、画像変換装置は変換された
画像の確認ができることを特徴とする。
(29)上記(26)にて、画像変換装置は特性をテー
ブルにて変換することを特徴とする。
(30)上記(26)にて、画像変換装置は特性を所定
の関数にて変換することを特徴とする。
(31)撮影者の眼の動きを検出する視線検出装置と、
検出した所定期間の眼の位置情報より主要被写体を選択
する被写体検出装置と、撮影者の眼の瞳孔の大きさを検
出する瞳孔検出装置と、画面の距離情報を複数検出する
マルチ測距装置と、フィルムに主要被写体情報と瞳孔情
報を記録するフィルム記録装置と、にて構成されたカメ
ラと、フィルム(現像処理されたもの)の映像を読み取
る画像読み取り装置と、フィルムに記録された主要被写
体情報または瞳孔の大きさ情報の一方または両方を読み
取る情報読み取り装置と、上記情報読み取り装置の情報
を基に画像の階調変換を行う画像変換装置と、にて構成
されたプリント装置と、を具備することを特徴とするカ
メラシステム。
(32)上記(31)にて、視線検出装置は瞳孔からの
反射光と角膜の反射光とより視線方向を検出する。
(33)上記(31)にて、視線検出装置は瞳孔からの
反射光より視線の動きを検出する。
(34)上記(31)にて、視線検出装置は角膜の反射
光より視線の動きを検出する。
(35)上記(31)にて、被写体検出装置は所定期間
内で検出回数の多い位置から主要被写体を検出する。
(36)上記(31)にて、被写体検出装置は所定期間
内で連続滞在時間が長い位置から主要被写体を検出す
る。
(37)上記(31)にて、被写体検出装置は所定期間
において1つ以上の主要被写体を検出する。
(38)上記(31)にて、瞳孔検出装置は視線検出装
置にて検出された信号を用いて行うことを特徴とする。
(39)上記(31)にて、瞳孔検出装置が検出する瞳
孔の大きさは赤目の大きさにて決定することを特徴とす
る。
(40)上記(31)にて、カメラにて記録される情報
は少なくとも主要被写体の存在位置または撮影者の瞳孔
の大きさ情報の一方または両方を含んでいる。
(41)上記(31)にて、画像変換装置は変換された
画像の確認ができることを特徴とする。
(42)上記(31)にて、画像変換装置は特性をテー
ブルにて変換することを特徴とする。
(43)上記(31)にて、画像変換装置は特性を所定
の関数にて変換することを特徴とする。
【0080】
【発明の効果】本発明によれば、撮影者の視線情報を記
録媒体に記録し、該記録媒体の情報を基に後処理にて最
適な画像を復元する視線検出カメラを提供することがで
きる。DETAILED DESCRIPTION OF THE INVENTION
[0001]
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to information from a photographer's eye.
(Gaze information and pupil size information), and
The image is converted to an image based on the information at the time of printing.
Eye-gaze detection camera and pudding to create beautiful photos
Data device.
[0002]
2. Description of the Related Art Conventionally, input of various kinds of information to a camera is an example.
For example, it is performed by dial, button, etc., and the input information is
As the number increases, the operation environment becomes complicated. example
For example, the gaze direction of the photographer looking through the viewfinder is detected,
A technology for inputting information to a camera from line information is disclosed in
194237, JP-A-3-87818, etc.
More are disclosed.
[0003] In the detection method, etc., the cornea, iris,
There is a method to detect using any of pupil, sclera (white eye) etc.
Many are disclosed (Japanese Patent Laid-Open No. 1-160537,
JP-A-2-206425).
[0004] Further, the visual line information is recorded, and the visual line information is recorded.
Based on the gaze information position (main subject) when printing
A method of printing is disclosed (Japanese Patent Laid-Open No. 4-1343).
No. 30, JP-A-5-158132). Also,
Tone conversion processing is common in digital image processing
It has been done.
[0005]
As described above, image processing
Techniques for reproducing optimal images based on
You. However, the person in charge of creating the optimal image is the photographer
If it is different from the
And optimal processing cannot be performed.
When there are a plurality of main subjects,
Trying to optimally process the gaze information by leaving it on the film
Provides the best image even if it is realized without performing gradation processing.
Cannot be offered. In addition, when you are watching
Depending on the situation, the image obtained may be different
Many.
[0007] The present invention has been made in view of the above problems.
The purpose is to capture the gaze information of the photographer.
Optimally for post-processing based on the film information
Restoring a natural image.
[0008]
[MEANS FOR SOLVING THE PROBLEMS] To achieve the above object
The present inventionSight ofThe line detection camera detects the eye movement of the photographer.
Outgoing line-of-sight detecting means and detected by this line-of-sight detecting means
Based on the detected photographer's eye position information
Main subject detection means for detecting a subject of interest;Photographer's eyes
Pupil detection means for detecting the size of the hole;
Exposure for the main subject detected by the detection means
And information detected by the pupil detection means.
Pupil sizeInformation on film or fill
Information recording means for recording on a recording medium on Mpatrone,
And the subject image exposed on the film is
Image reading means of a printer device provided outside the camera.
Is converted to an image signal.
The gradation conversion means of the printer device records the information on the recording medium.
Properly print the main subject based on the recorded information.
Used to convert the gradation of the above image signal
BeIt is characterized by the following.
[0009]
[0010]
[0011]
[Function] That is, the present inventionSight ofIn line detection cameras, gaze detection
Means for detecting the movement of the photographer's eyes and detecting the main subject
Is the eye of the photographer detected by the gaze detecting means.
The main subject is repeatedly detected based on the position information,pupil
The detecting means detects the size of the pupil of the photographer, and
The column indicates the main object detected by the main object detecting means.
Information about the exposure of the object and the pupil detection hand
Information about the size of the pupil detected by the step
On a recording medium on the
You. And especially, the subject exposed on the film
The image is read by a printer installed outside the camera.
Means for converting the image signal
Is the above-mentioned recording in the gradation converting means of the above-mentioned printer device.
Based on the information recorded on the medium, the main subject can be properly
Converting the gradation of the image signal so that
Used for.
[0012]
[0013]
[0014]
DESCRIPTION OF THE PREFERRED EMBODIMENTS Before describing embodiments of the present invention,
Explanation of the principle of gaze detection employed in the embodiment of the present invention
I do. There are various methods for detecting the gaze direction.
However, here are some existing methods that can be applied to cameras.
The first pull well known to those skilled in the art
A corneal reflection image called a Kinue image and a reflection image of the fundus, or a rainbow
Briefly explain how to detect using the edge of sampling
You. Since the structural description is already known, it is omitted here.
I do.
First, FIG. 2 shows a light beam projected substantially from the optical axis.
The state of the light reception output of the reflected light from the eye will be shown and described. Casually
When light is projected on the eyeball 90 shown in FIG.
The first Purkinje image with high light output has a weak reflected light amount and is a reflected image
It is difficult to detect because of the different positions where they can be performed.
The fundus when light is projected on the eyeball 90
Is a rainbow in which the fundus image is the peripheral image of the pupil due to the reflected light 95b from
It is detected as a silhouette of the sampling edge 94. This fundus
Image 95b from the image is shown together with the first Purkinje image 95a.
As shown in Fig. 2, the gaze direction is detected using these two images.
Put out. Reference numeral 91 denotes a rainbow sample, 92 denotes a sclera (white eye), 9
3 denotes a pupil, and 94 denotes a rainbow sampling edge.
FIG. 3 shows a change in the detected image due to the rotation of the eyeball.
The situation will be described and described. The optical axis 98 of the eyeball 90 and the eye
When the luminous flux is parallel, as shown in FIG.
The center of the fundus image 95b, ie, the center of the pupil, and the firstLeKinue
The center of the image 95a is coincident. And the eyeball 90ButTimes
When the optical axis 98 is turned, the optical axis 98 is shifted to the eye as shown in FIG.
The ball 90 rotates around the rotation center 90c.
In this case, the center of the fundus image 95b is
Receives reflected light at different positions on the sensor pixel row
it can. Further, the center of the first Purkinje image 95a is located on the fundus.
Light is received at a position relatively different from the center of the image 95b. This
This is because the center of the curved surface in front of the cornea is the center of rotation of the eyeball.
Because it is different.
Therefore, the pair of sensor pixels of these two images is
Between the absolute position and the relative displacement between the two images
And the amount of rotation and shift of the eyeball 90 of the photographer looking through the viewfinder.
To determine where the photographer is looking
Can be determined. In the present invention, the gaze detection image
At least the corneal reflection image 95a or the fundus reflection image 95b.
Detect using one.
Next, in FIG. 4, the center of the eyeball is fixed.
Rotation and corneal reflection 95a and fundus reflection 95b
Will be described. Fundus reflex 9 if the center of the eyeball is fixed
5b, the center of gravity position ix of the corneal reflection 95a,
Rotation angle is detected by detecting the center of gravity including both or both
it can. In the figure, px is the center of gravity of the corneal reflection 95a.
Ix indicates the position of the center of gravity of the fundus reflection 95b.
The fundus reflex shown in FIG.
This is a so-called “red-eye state” in which the reflected light is large. Bright condition
If the rainbow sampling is stopped down in the or the reflected light does not return to the light receiving system
If it is not the above red eye condition, the fundus reflection 95b
The output drops further. The view from the center of the viewfinder
In this case, FIG. 4A shows the center at a rotation angle of 0 (reference), and FIG.
Is a negative rotation angle and the left side is shown, and FIG.
Will be.
Next, FIG.ofShift and corneal reflex 95
a and the state of the fundus reflection 95b will be described. Fundus reflex 9
5b, the center of gravity position ix of the corneal reflection 95a,
If the position of the center of gravity including both
The shift amount can be detected.
In the figure, px is the weight of the corneal reflection 95a.
The center position, ix, indicates the position of the center of gravity of the fundus reflection 95b.
You. In addition, similarly to FIG.
Red-eye state, and fundus reflex 95 if not red-eye state
The output of b further decreases. The view from the center of the viewfinder
In the case shown in FIG. 5A, shift 0 (reference) is at the center, and FIG.
5 (b) shows the shift amount negative and the left side, and FIG. 5 (c) shows the shift amount positive.
You are looking to the right. Generally, one shutter cycle
Sequence, that is, 2nd release from near 1st release
By the time the eye shift does not change significantly
The relative movement and the reference position
You can know the direction to look. Also, the reference position
The detection is preferably performed in a sequence.
Hereinafter, the present invention based on the above-described principle will be described.
An example will be described. First, FIG.
Of the eye-gaze detecting camera and the printer device according to the embodiment of the present invention
Will be described. In the eye-gaze detection camera,
The outputs of the output unit 1 and the pupil diameter detection unit 2 are input to the subject detection unit 3
And the output of the subject detection unit 3 is a film recording unit.
4 inputs. Then, the film recording section 4
The information is transmitted to the printer device via the film. one
On the other hand, in the printer device, the image reading unit 5 and the information reading unit
The output of the capture unit 6 is connected to the input of the image conversion unit 7,
The output of the image converter 7 is connected to the inputs of the display 8 and the output 9.
Have been.
In such a configuration, first, the line-of-sight detection
On the camera side, the line-of-sight detection unit 1 is the photographer looking through the viewfinder.
And sends the information to the subject detection unit 3.
You. Then, the pupil diameter detector 2 determines the size of the pupil of the photographer.
And sends the information to the subject detection unit 3. Subject detection
The unit 3 includes at least one main unit based on the line-of-sight information from the line-of-sight detection unit 1.
The subject is extracted, and the size of the pupil from the pupil diameter detection unit 2 is adjusted.
Information about the corresponding pupil diameter from the related information
You. The film recording unit 4 is detected by the subject detection unit 3
Information related to one or more main subjects (corresponds to main subjects)
Information about the size of the pupil and other pupils
Information) Information on the size of the pupil to be recorded on film
(Magnetic recording, optical recording (barcode imprinting) recording)
You.
In this way, the film is developed and printed.
When the image data is passed to the printer device, the printer device
The stripping unit 5 reads image information with a film scanner
The image information is sent to the image converter 7. The information reading unit 6 is
Information recorded on the film (optical recording until magnetic recording)
(Main subject information and pupil size detected by gaze
Information) and sends the main subject information to the image conversion unit 7.
You. The image converter 7 converts the image information, the main subject information, and the pupil.
Display an image whose gradation is converted from the size information on the display unit 8
(The image before conversion can also be displayed.)
Send information. Then, the output unit 9 confirms the converted image
Output later.
Hereinafter, referring to the flowchart of FIG.
The sequence on the eye-gaze detecting camera side will be described. Eye-gaze detection
When the sequence on the camera side starts, the line-of-sight detection unit 1
Process information (gaze detection and one or more main subjects)
(Step S1), pupil diameter detecting section 2 detects pupil size
(Step S2). And the subject detection unit
3 performs a sequence related to AF and exposure (step S
3) In synchronization with film winding (or rewinding)
The film recording unit 4 detects one or more main
The subject information and the pupil size information are recorded (step S
4), this sequence ends (step S5).
Next, referring to the flowchart of FIG.
The sequence on the counter side will be described. The sheet on the printer side
When the cans start, the information reading unit 6 turns the film,
One or more key features recorded on the processed film
The subject information and the pupil size are read (step S1).
1), the image reading unit 5 reads image information
(Step S12). And this read image information
Flashing, circles, etc.
(Step S13), and the image conversion unit 7
The image is subjected to gradation conversion processing and confirmation (step S1).
4) The display unit 8 displays the converted image (step)
S15). After this confirmation, an image is output from the output unit 9 (scan).
Step S16), end the present sequence (Step S16)
17).
It is to be noted that, in the case of NG or the like, it is confirmed that the
The characteristics of the conversion may be changed. Further display unit 8
The image gradation of the output unit 9 may be adjusted. Fi
When the information recorded in the room is only the main subject information, 1
Scan images of more than one main subject
The gradation is determined from the density of each main subject position
In the case of only the size information, the pupil size change amount and the film
Depending on the density of each block (the screen is divided into multiple blocks)
The gradation may be determined in the same manner. Also a scanner
Scanner integration to ensure dynamic range
Scan multiple times at different times and correct by integration time
Processing may be performed using images.
FIG. 8 shows a first embodiment of the present invention.
An eye-gaze detecting camera and a camera according to a second embodiment
The configuration of the printing apparatus is shown and described. The second embodiment
Is realized by one-dimensional gaze detection, but two-dimensionally
Of course, if detection is performed, the accuracy is further improved.
As shown in FIG.
On the camera side, the output of the photometric unit 23 is the KCPU 21 (camera side).
CPU) and the I / F circuit 22 is connected to the LED
Connected to the road 28, the line sensor 24, and the KCPU 21;
The LED circuit 28 includes the I / F circuit 22 and the finder optical system 2.
5 is connected. Further, the line sensor 24 has an I /
F circuit 22, connected to finder optical system 25,
The optical system 25 includes an LED circuit 28 and a line sensor 24.
It is optically connected and the photographer's eyes and the shooting scene
Optically connected. And hoist and rewind
The circuit 26 and the magnetic circuit 27 are composed of the KCPU 21 and the film 29.
It is connected to the.
On the other hand, on the printer side, a magnetic reading circuit
32 is connected to the film 30 (developed),ILum
The scanner 33 includes the film 30 and the PCPU 31 (printer).
Side CPU) and the image memory 34. Display circuit
Reference numeral 35 is connected to the image memory 34 and the PCPU 31. Out
The input image memory 36 is connected to the image memory 34 and the PCPU 31.
It is connected to the linter unit 37. It should be noted that AF is known.
Multi AF (for example, scan AF: JP-A-4-3248)
07 publication, etc.).
With such a configuration, on the camera side,
The photometric unit 23 sends photometric information to the KCPU 22. Gaze detection
In the block of I / F circuit 22, LED circuit 28 and line
Controls the sensor 24 and communicates with the KCPU 21
Communication is performed, and the LED circuit 28 is connected to the finder optical system 25.
The light beam is projected to the eye through a part, and the line sensor 24
Of reflected light from the camera through the viewfinder optical system 25
No. The KCPU 22 reads the image information of the eye from the line-of-sight detection block.
Extract information on gaze direction and pupil size from the report,
Extract one or more information about the main subject from the information
With pupil size information, photometric information, and exposure information
Transmit to circuit 27 to control winding / rewinding circuit 26
Then, it is recorded on the film 29 by a magnetic signal.
On the other hand, the magnetic reading on the printer side is performed.
The take-off device 32 is magnetically applied to the film 30 from the film 30.
The information from the camera recorded in the
Send to PU31. The film scanner 33 is a PCPU 31
Control signal (optimal scanning speed based on photometric information and exposure information)
Read the image information from the film 30
The image is sent to the image memory 34. PCPU 31 is the main subject information
And sends the main subject information to the display circuit 35 based on the image.
And gradation conversion based on information from the magnetic reader
(Table conversion, function conversion) and display the processed image
The output image memory 34
Send to The display circuit 35 displays the image stored in the image memory 34.
Image table based on image and main subject information from PCPU 31
Display and main subject display. The output image memory 36 is newly
Store the created image. Printer device 37 created
And output the image.
FIG. 9 shows the details of the visual axis detection optical system.
The configuration is shown and described. FIG. 9A shows the optical arrangement.
You. The detection sensor uses an accumulation type line sensor to detect
Detect reflected light. The light source of LED0, LED1
LED0 has a red-eye image on the detection line sensor
LED1 is on the detection line sensor
So that the red-eye image does not occur
To emit light at an angle of 2 to 5 degrees. This
The light emitted from LED0 and LED1 is a beam splitter.
The light is projected to the eye through the
Guided to the line-of-sight optical system and line sensor via the muscle splitter
It is.
FIGS. 9B and 9C show LED0 and LED1.
3 shows an image of an eye when the light is projected. For details, see FIG.
(B) shows the light emitted from LED0, which shows the Purkinje image and the red-eye image.
FIG. 9 (c) shows the detected state.
There is a Purkinje image but no red-eye image can be detected
It shows the situation.
It should be noted that the process performed by LED0 and LED1
The position of the Lukinje image can be the same in the x-axis direction.
LED0 and LED1 are arranged as follows (on the detection sensor
Position the light source at a position orthogonal to the direction of detection of the Purkinje image.
Arrangement).
Next, FIG. 10 shows the lines of FIGS. 9 (b) and 9 (c).
The signal on the sensor is shown and described. The image in FIG.
The difference processing between the signal in FIG. 10A and the signal in FIG.
Shows the results of the experiment, where only the red-eye image is extracted
I understand. Therefore, from the image shown in FIG.
Red-eye center of gravity (pupil center of gravity) position and maximum value (Purkinje image)
Position) is detected, and the gaze direction can be determined.
The size of the pupil can be detected at both edges.
Hereinafter, referring to the flowchart of FIG.
The sequence on the eye-gaze detecting camera side in the second embodiment is
explain. Camera sequenceToWhen started, the sequence
Initialize. That is, here, the variable i is set to 0.
SetOSet the focus point to the center (Step
S21). Subsequently, the first release is determined (the
Step S22).
Then, the first release switch is turned off.
In the case of, the process proceeds to step S31, and the first release
If the switch is ON, the subroutine "line-of-sight detection 1"
To perform gaze detection synchronized with the 1st release.
(Step S23).
That is, as shown in the flowchart of FIG.
As described above, when the subroutine "line-of-sight detection 1" is started,
The subroutine "line-of-sight detection" described above is executed (step S
32) store the line-of-sight block data in the memory E (i),
The size is stored in the memory P (i) (step S33),
The process returns to the main routine (step S34).
Subsequently, a subroutine "line-of-sight detection 2" is executed.
Then, continuous gaze detection is performed (step S24). Immediately
That is, as shown in the flowchart of FIG.
When the routine “Gaze detection 2” starts, the variable i is incremented.
(Step S35), the subroutine described later is executed.
Then, a "line-of-sight detection" is executed (step S36). Line of sight
Memory E (i) and the pupil size in memory P
(I) (step S37), and
The process returns (step S38).
Next, the KCPU 21 again executes the first
Is determined (step S25), and the first release is performed.
If the switch is OFF, the process proceeds to step S31,
2nd release when the 1st release switch is ON
Is determined (step S26). And 2nd
If the release switch is OFF, return to step S24.
Multi-speed when the 2nd release switch is ON.
Performs can ranging. Here, the subroutine "
The subroutine "measurement" is performed according to the information detected in "detection 1".
Distance ”to set a distance measuring point (step S2).
7).
That is, as shown in the flowchart of FIG.
When the subroutine "ranging" starts, multi-ranging
(Step S121), and the evaluation of the data E (0) is performed.
Perform (Step S122). And E (0) = 0
In this case, a known evaluation AF method that does not use the line-of-sight data
The AF point is set by the algorithm (step S12
3) If E (0) = 0, distance measurement of E (0) data
Set the AF point based on the block information (step
S124). In addition, the lens
Is calculated (step S125), and this sequence
And returns to the main routine (step S126).
Next, the KCPU 21 executes the shooting sequence
(Lens drive, exposure determination, exposure) (step S2).
8) Winding starts (step S29), and winding starts
Information is synchronously recorded on the film 29 (step S3).
0), this sequence ends (step S31).
The subroutine executed in step S30
The sequence of the chin "information recording" is shown in FIG. Immediately
When the subroutine "information recording" is started,
Eye movement detection from release to 2nd release
From data E (i), histogram processing for each block
Normalization by the number of detections is performed (step S81), and a predetermined value is obtained.
Select the top three blocks from the above blocks and
Information is output (step S82). And the corresponding
The pupil size information of the lock is output (step S8).
3) Output other pupil size information (step S)
84), and exits this sequence (step S85).
Next, referring to the flowchart of FIG.
The sequence of the subroutine "line-of-sight detection" will be described.
When the subroutine "line-of-sight detection" starts,
(Step S41), and reset the sensor.
LED0 is projected (step S42), and the sensor signal D0 is emitted.
Is detected (step S43). Next, reset the sensor.
The LED 1 is emitted (step S44), and
The sub signal D1 is detected (step S45). And this
Signal processing to detect the line of sight with the detection signals D0 and D1
Exit (step S46), exit this sequence (step S46).
Step S47).
In step S45, the flow of FIG.
As shown in the chart, the subroutine "Signal processing"
Is started, the detected data D0 and D1 are given a predetermined weight.
Data D (D = a × D0−b × D1; a,
b predetermined variable) is created (step S51). Soshi
The center of gravity xd is detected from the data D (step S5).
2) From the data D0, the MAX value position (when there are multiple MAX values)
If this is the case, the position of the center of gravity of the MAX data group) x0 and the MAX value M
0 is detected (step S53), and MAX is obtained from the data D1.
Value position (If there are multiple MAX values,
The center position x1 and the MAX value M1 are detected (step S5).
4).
Subsequently, the evaluation of the amount of displacement between x0 and x1 (eye
The motion amount is evaluated) (step S55). And |
When x0−x1 | <ε is not satisfied, the process proceeds to step S62.
When | x0−x1 | <ε, the average is calculated from the data D0.
The value Av0 is obtained (step S56). Then the data
The difference between the MAX value M0 of D0 and the average value Av0 is evaluated (k is
(Predetermined value) (step S57), and M0−Av0> k is not satisfied.
If not, the process proceeds to step S62, where M0−Av0> k
In the case of, the average value Av1 is obtained from the data D1 (step
Step S58). Subsequently, the maximum value M1 of the data D1 is
The difference of the average value Av1 is evaluated (k is a predetermined value) (Step S
59) If not M1-Av1> k, step S6
2 and if M1-Av1> k, the detection signal D
The pupil diameter dp is detected (step S60).
The subroutine executed in step S60
The sequence of the chin “pupil diameter detection” is shown in FIG.
It is as expected. That is, the subroutine "pupil diameter detection"
When started, the signal of the detection data D is binary-coded at a predetermined output.
(Step S71), and as shown in FIG.
Detect change positions xf and xg of binary data in the x-axis direction
(Step S72). Then, the size of the pupil is measured (d
p = xg-xf) (step S73), and this sequence
Is exited (step S74).
Returning to the sequence of FIG.
The position of the center of gravity of the red eye xd and the position of the Purkinje image x0
(Detection block is 1 to N)
Step S61). On the other hand, in step S62, the detection block
To 0 (non-existent block No.)
Exit (step S63).
In step S55, the detection signals D0,
The determination of the eye movement in D1 is performed, and step S5
7. In S59, a blink determination is made. Also,
When there is a nozzle signal source such as internal reflection in the viewfinder optical system
If the eyepiece side of the viewfinder is shielded in advance, each LED is turned on
Nozzle signals Dd0 and Dd1
Dd = a × Dd0−b × Dd1 (where a and b are predetermined
), And the difference between the detection signal and the noise signal Dd is added to the signal D.
It is good to store.
FIG. 18 shows the configuration of the line sensor.
Will be described. FIG. 18A shows the line sensor block.
Fig. 2 shows a block diagram of the configuration, where BS is composed of photoelectric conversion elements.
Have been. The DBS shields the BS to compensate for dark current.
This is a basic block for regular use. In addition, the shift register
Each BS is driven and controlled by a control signal from the KCPU 21.
You. Each BS receives control signals (T), (C) and
And the integral control by the monitor signal (M) output by the BS and the BS itself.
It is. Integral control detects peak value (any BS has
Outputs a signal that terminates integration when the bell is reached) and time
Perform control. The signal (M) is recorded in the KCPU 21 and the signal
(T) is held until the next integration starts, and C
Hold. Furthermore, the image of the eye is converted to the signal of the shift register.
Accordingly, after the dark current difference is erased and amplified, the A /
It is sent to the D circuit. And the integration time control is the brightest
Determined by the state (when red-eye occurs) and integrated when no red-eye occurs
The time is the integration time when red eye occurs and is determined by the control signal (T).
It is.
FIG. 18B shows the internal circuit of the BS.
FIG. Gauge for photoelectric conversion by PD and integral control
Stored in the capacitor C via the gate G0
1 resets PD and C together with G02. Gate G
03 performs read amplification, and the gate G04 is a shift register.
The signal is read according to the signal of the star. And Daioh
Step D01 performs peak value detection.
Hereinafter, referring to the flowchart of FIG.
The sequence of the integration time control will be described. Integration sequence
Is started, the sensor and timer are reset (step
S101), the light emitting LED0 is determined (step S1).
02). In the case of LED0 light emission, the same as the integration start
At this time, a timer is started (step S103).
Subsequently, the timer t is determined (step
S104) When t> td (td is a predetermined limit value)
If not, go to step S108 and if t> td is not satisfied
Judge the integration monitor (peak value detection) signal.
Step S105).
When the monitor signal is OFF, the step
Returning to step S104, the integration is continued. Monitor signal ON
In the case of, the integration ends (step S106), and the integration time
tc is recorded by the KCPU 21 (step S107).
Is read out (step S113), and the process returns.
(Step S114).
In the above step S102, LED0
If is not emitted, the timer
-Start (step S109). And the integration module
(Peak value detection: monitor determination level is step S1
(Set higher than 07) (Step S)
110), if the monitor signal is ON, step S108
And the timer t is determined when the monitor signal is OFF.
Is performed (step S111). Furthermore, t> tc is not satisfied
In this case (step S111), the process returns to step S110.
Continue the integration.
On the other hand, in step S111, when t> tc
In this case, the integration is terminated, and the process proceeds to step S113.
(Steps S111 and S112). Step S108 above
If the signal is unreliable (integration time
Long: no eye, integration end is shorter than expected: eye
There is a strong reflection other than
The process proceeds to step S113 (step S108).
The time of each integration is determined and
If the integration time is not within the time, the reliability is low.
The determination may be made to invalidate the data. Next, FIG.
The chart shows the sequence on the printer side and explains it.
You.
When the printer sequence starts, the PCPU
31 initializes the data (step S20)
1) Information recorded magnetically by the magnetic reading circuit 32
Is read (step S202). And films
The canner 33 reads the image information and stores it in the image memory 34.
(Step S203), the display circuit 35 displays the information based on the information.
Then, information and an image are displayed (step S204).
Further, the PCPU 31 converts the image (Step S).
205), and display the converted image (step S20)
6). Then, the image is confirmed (step S20).
8) In the case of NG, change the parameters and
Returning to step S204 (step S207), if OK
Outputs the converted image (step S209),
The process exits the cans (step S210).
Next, the flowcharts of FIGS.
Refer to the above subroutine "image conversion" sequence
Will be described. When image conversion starts, the main subject position
Average output value of image block (K
0, K1, K2) and the average output value (K
a) is detected (step S301). Next,
The average value of the pupil at the position of the object (P0, P
1, P2) (step S302).
The average value (Pa) of the pupil diameter is detected (step S30).
3).
Subsequently, the output difference between the main subject positions is detected.
(Step S304), K0−K2 <Kd (Kd is a predetermined
) (The contrast between the main subjects is large)
It moves to step S313.
On the other hand, when K0−K2 <Kd,
Detects a change in pupil diameter (step S305), and P0−
If P2 <Pd (Pd is not a predetermined value), the dark portion
And the conversion to expand the range of the bright part (FIG. 24 (a))
(See (4)) (step S311). This step
In step S305, if P0−P2 <Pd, the pupil flatness
Comparison with the average size Pa is performed (step S306, step S306).
Step S307).
Then, P0−Pa ≧ Pv (Pv is a predetermined value)
Value), the average value of the block of the first main subject
So that the force value is slightly below the center of the conversion output range.
(See (3) of FIG. 24A) (step S31).
0). Further, in the case of -Pv> P0-Pa> Pv,
The average output value of the block of the first main subject is converted output level.
24 (a) (see (1) of FIG. 24 (a)).
(Step S308). Also, -Pv ≦ P0-
In the case of Pa, the average output of the block of the first main subject
Convert so that the value is slightly above the center of the conversion output range
(See (2) of FIG. 24A) (step S30).
9).
On the other hand, the steps from step S304
In S313, a change in pupil diameter is detected. Soshi
If P0−P2 <Pd (Pd is a predetermined value),
Put block P0 within conversion output range and dark area
And the conversion to expand the range of the bright part (FIG. 24 (b))
(See (8)) (step S319). Furthermore, P
When 0-P2 <Pd, the average pupil size Pa
Are compared (steps S314 and S31).
5). When P0−Pa ≧ Pv (Pv is a predetermined value),
In this case, the block of K0 is put in the conversion output range, and
Conversion to expand the range of the bright part (see FIG. 24B)
(See (7)) (step S318). Furthermore,-
If Pv> P0−Pa> Pv, change the block of K0.
Conversion into the conversion output range (see (5) of FIG. 24 (b))
Is performed (step S316). Also, -Pv≤P0-P
In the case of a, the block of K0 is put in the conversion output range.
In addition, the conversion for expanding the range of the dark part (FIG. 24B)
(See (6)) (step S317). In this way
A turn is made (step S312).
FIG. 24 shows a conversion curve.
The numbers correspond to the numbers of the conversion methods in FIGS. Soshi
For conversion, the input and output may be converted and output in a table.
No. The conversion output range is determined by the output medium.
The embodiments of the present invention have been described above.
However, the present invention is not limited to this, and various improvements and modifications are possible.
Of course, further modifications are possible. For example, gaze detection
Formula is Purkinje image position from one screen using area sensor
And the method of extracting the pupil edge may be used.
The pupil center of gravity and the Purkinje image are time-shared using the D sensor
An extraction method may be used. In the case of PSD, the pupil size is large.
The magnitude is estimated based on the light amount after the difference. In addition, reliability judgment
It is done by blinking and eye movements, but the camera and face contact
Tactile (pressing the eye against the camera finder)
It is even better to combine eye drop determination. Furthermore, gaze
Detection is performed in parallel with the sequence of cameras such as AF and AE
It may be.
In extracting the main subject,
Block where the line stays continuously for a long time (line of sight)
May be selected. That is, the flowchart of FIG.
After initialization, as shown in the
In step S401, the variable i is incremented (step S4).
02), the above-described subroutine "line-of-sight detection" sequence
And when E (i-1) = E (i) is not satisfied,
(Step S404) MAX1 <E (i-1)
In this case, J (E (i-1)) is stored in MAX1.
(Step S410), E (i-1) is set to MAX1.
Tore (step S411), and proceed to step S412
I do.
Then, in step S409, MA
When X1 <E (i−1) is not satisfied, MAX2 <E
If it is (i-1) (step S414), MA
Store j (E (i-1)) in X2 (step S41)
5) Store E (i-1) in MAX2 (step
S416), and proceeds to step S412.
Further, in step S414, MA
When X2 <E (i−1) is not satisfied, MAX3 <E
In the case of (i-1), MAX (j (E (i−
1)) is stored (step S415) and stored in MAX3.
E (i-1) is stored (step S416), and
The process moves to step S412. In step S417, M
If AX3 <E (i-1) is not satisfied, step S41 is executed.
Move to 2.
In step S 412, J (E (i−
1)) is set to 0, and J (E (i)) = J (E (i)) + 1
(Step S405), the first release switch
If the switch is OFF, the sequence ends (step
S413). And 1st release switch and 2n
Return if d-release switch is on
(Step S408).
On the other hand, the line of sight at the time of the first release
(Line of sight) and the block at the second release (line of sight)
Weight) (one layer, the main subject)
Is often closely related to: Increase the number of times or time
Evaluation) may be performed. Furthermore, in the AF method,
Passive two-dimensional wide field of view using area sensor
AF may be used, and a small number of discrete multi-A
F may be used. In addition, the image conversion method uses gaze information and pupil
Of course, any other method that uses hole size information can be used.
Good.
Further, in the subroutine "image conversion",
Therefore, as shown in FIG.
It is good to have a difference (an example of the conversion characteristic is shown in FIG. 27).
). That is, as shown in the flowchart of FIG.
In the main subject pupil diameter detection (P0, P1, P2, Pa)
Is performed (step S501), and P0−P2 <Pd is satisfied.
In the case, P0−P2 <Pd
27 is a change characteristic indicated by a broken line from a normal characteristic.
And returns (steps S502 to S5).
04).
The conversion method is changed according to the absolute value of the pupil.
You may. Furthermore, when only the main subject information from the line of sight is
As shown in FIG. 28, each block corresponding to the main subject information
The conversion may be performed with the average output of the
(An example of the conversion characteristic is shown in FIG. 29).
That is, as shown in the flowchart of FIG.
As described above, the main subject block output detection (K0, K1, K
2) is performed, the average output Ka is detected, and K0 to K2 are set to M0.
To M2, Ma (Steps S601 to S60)
3). Then, comparison between M0, M2 and Mmax, Mmin
And based on the comparison result, the characteristic shown in FIG.
(1) to (6) are selected (Steps S605 to S6)
15).
In addition, the information recorded on the film is
It is more preferable to determine the contents by adding a header signal. For example
(First line of sight block header signal) (Block position)
(Average pupil diameter) (Second line-of-sight block header signal)
Lock position) (Average pupil diameter) (Third line-of-sight block header
-Signal) (block position) (average pupil diameter) (pupil diameter head)
(Pupil diameter 1) (pupil diameter 2) ... (end signal)
It is.
As described in detail above, according to the present invention, the current
Main subject extracted from line-of-sight information in camera configuration
Gradient from body and pupil size information (only one may be used)
An ordered image can be obtained.
According to the above embodiment of the present invention, the following:
Such a configuration is obtained.
(1) A camera that detects the movement of the photographer's eyes with a camera
The line detection device and the detected eye position information for a predetermined period are mainly used.
Object detection device for selecting the subject of interest
A film recording device that records subject information,
A printing device that performs gradation conversion based on information.
A camera system, characterized in that:
(2) In the above (1), the gaze detecting device reflects the light from the pupil.
The gaze direction is detected from the light and the reflected light from the cornea.
(3) In the above (1), the gaze detection device reflects from the pupil.
The gaze movement is detected from the light.
(4) In the above (1), the line-of-sight detection device detects the reflected light from the cornea.
Gaze movement is detected.
(5) In the above (1), the subject detection device can
The main subject is detected from the position where the number of times of detection is large.
(6) In the above (1), the subject detection device can
The main subject is detected from the position where the continuous stay time is long.
(7) In the above (1), the subject detection device performs
To detect one or more main subjects.
(8) Vision for detecting the movement of the photographer's eye in the camera
The line detector and the eye position information for a predetermined period detected are mainly used.
A subject detection device that selects the subject of interest and the pupil of the photographer's eye
Pupil detection device that detects the size of the hole
A film recording device for recording subject information and pupil information,
A camera system comprising:
(9) In the above (8), the gaze detection device reflects the light from the pupil.
The gaze direction is detected from the light and the reflected light from the cornea.
(10) In the above (8), the eye gaze detecting device performs the reaction from the pupil.
The movement of the line of sight is detected from the emitted light.
(11) In the above (8), the line-of-sight detection device uses the reflected light of the cornea.
More gaze movement is detected.
(12) In the above (8), the object detection device is set within a predetermined period.
Detects the main subject from the position where the number of detections is large.
(13) In the above (8), the subject detecting device can
Detects a main subject from a position where the continuous stay time is long.
(14) In the above (8), the subject detection device performs
At least one main subject is detected.
(15) In the above (8), the pupil detection device is a gaze detection device
It is characterized by performing using the signal detected in.
(16) The pupil detected by the pupil detection device in the above (8)
The size of is determined by the size of red eyes
You.
(17) Camera detects movement of eye of photographer
Based on the gaze detection device and the detected eye position information for a predetermined period
A subject detection device that selects the main subject,
A pupil detection device that detects the size of the pupil and a pupil on the film
Film recording device for recording hole information and film information
And a printing device that performs gradation conversion based on
Camera system characterized by the above-mentioned.
(18) In the above (17), the eye gaze detecting device detects
The gaze direction is detected from the reflected light and the reflected light from the cornea.
(19) In the above (17), the eye-gaze detecting device detects
The movement of the line of sight is detected from the reflected light.
(20) In the above (17), the line-of-sight detection device uses the corneal reflection.
The gaze movement is detected from the light.
(21) In the above (17), the subject detection device operates for a predetermined period.
The main subject is detected from the position where the number of times of detection is large.
(22) In the above (17), the subject detection device operates for a predetermined period.
Main subject is detected from the position where the continuous stay time is long
You.
(23) In the above (17), the subject detection device operates for a predetermined period.
In, one or more main subjects are detected.
(24) In the above (17), the pupil detection device is a gaze detection device.
The detection is performed using a signal detected by the device.
(25) The pupil detected by the pupil detection device in (17).
The size of the hole is determined by the size of the red eye
You.
(26) In the printing apparatus, a film (developed
Image reading device that reads the video of
Main subject information or pupil size information recorded in the
An information reading device for reading one or both of
An image that performs image gradation conversion based on information from an information reader
An image conversion device.
Tem.
(27) Information recorded by the camera in (26) above
Is at least the location of the main subject or the pupil of the photographer
Contains one or both of the size information.
(28) In the above (26), the image conversion device performs the conversion.
It is characterized in that an image can be confirmed.
(29) In the above (26), the image conversion device records the characteristics.
It is characterized in that it is converted by a bull.
(30) In the above (26), the image conversion apparatus determines the characteristics.
The conversion is performed by the following function.
(31) a line-of-sight detection device that detects movement of the photographer's eyes;
Select the main subject from the detected eye position information for a predetermined period
Object detector and the size of the pupil of the photographer's eye
Pupil detection device to detect and detect multiple distance information of the screen
Multi-ranging device and main subject information and pupil information on film
And a film recording device for recording information.
And images of film (developed)
Image reading device and main subject recorded on film
Read one or both of body information and pupil size information
Information reading device to take and the information of said information reading device
And an image conversion device that performs gradation conversion of the image based on the
And a printing device.
Mela system.
(32) In the above (31), the eye-gaze detecting device detects
The gaze direction is detected from the reflected light and the reflected light from the cornea.
(33) In the above (31), the eye-gaze detecting device detects
The movement of the line of sight is detected from the reflected light.
(34) In the above (31), the eye-gaze detecting device uses the corneal reflection.
The gaze movement is detected from the light.
(35) In the above (31), the subject detection device operates for a predetermined period.
The main subject is detected from the position where the number of times of detection is large.
(36) In the above (31), the subject detection device operates for a predetermined period.
Main subject is detected from the position where the continuous stay time is long
You.
(37) In the above (31), the subject detection device operates for a predetermined period.
In, one or more main subjects are detected.
(38) In the above (31), the pupil detection device is a gaze detection device.
The detection is performed using a signal detected by the device.
(39) The pupil detected by the pupil detection device in (31).
The size of the hole is determined by the size of the red eye
You.
(40) Information recorded by the camera in (31) above
Is at least the location of the main subject or the pupil of the photographer
Contains one or both of the size information.
(41) In the above (31), the image conversion device performs the conversion.
It is characterized in that an image can be confirmed.
(42) In the above (31), the image conversion apparatus records the characteristics.
It is characterized in that it is converted by a bull.
(43) In the above (31), the image conversion apparatus determines the characteristics.
The conversion is performed by the following function.
[0080]
According to the present invention, the gaze information of the photographer can be obtained.Record
Recording mediumRecorded in therecoding mediaPost-processing based on the
Eye gaze detection turtle that restores an appropriate imageLaCan be provided
Wear.
【図面の簡単な説明】
【図1】本発明の第1の実施例に係る視線検出カメラ及
びプリンタ装置の構成を示す図である。
【図2】略光軸より投光された光束の眼からの反射光の
受光出力を示す図である。
【図3】眼球の回転による検出像の変化の様子を示す図
である。
【図4】眼球中心が固定されるような場合の回転と角膜
反射95aと眼底反射95bの様子を示す図である。
【図5】眼球がシフトと角膜反射95aと眼底反射95
bの様子を示す図である。
【図6】第1の実施例の視線検出カメラ側の動作を示す
フローチャートである。
【図7】第1の実施例のプリンタ側の動作を示すフロー
チャートである。
【図8】第1の実施例を更に具現化した第2の実施例に
係る視線検出カメラ及びプリンタ装置の構成を示す図で
ある。
【図9】視線検出光学系の詳細な構成を示す図である。
【図10】図9(b),(c)におけるラインセンサ上
の信号を示す図である。
【図11】第2の実施例の視線検出カメラ側の動作を示
すフローチャートである。
【図12】サブルーチン“視線検出1”のシーケンスを
示すフローチャートである。
【図13】サブルーチン“視線検出2”のシーケンスを
示すフローチャートである。
【図14】サブルーチン“視線検出”のシーケンスを示
すフローチャートである。
【図15】サブルーチン“信号処理”のシーケンスを示
すフローチャートである。
【図16】サブルーチン“瞳孔径検出”のシーケンスを
示すフローチャートである。
【図17】サブルーチン“情報記録”のシーケンスを示
すフローチャートである。
【図18】ラインセンサの構成を示す図である。
【図19】積分時間制御のシーケンスを示すフローチャ
ートである。
【図20】サブルーチン“測距”のシーケンスを示すフ
ローチャートである。
【図21】第2の実施例のプリンタ側の動作を示すフロ
ーチャートである。
【図22】サブルーチン“画像変換”のシーケンスを示
すフローチャートである。
【図23】サブルーチン“画像変換”のシーケンスを示
すフローチャートである。
【図24】第2の実施例に係る変換曲線を示す図であ
る。
【図25】改良例に係るサブルーチン“視線検出”のシ
ーケンスを示すフローチャートである。
【図26】改良例に係るサブルーチン“画像変換”のシ
ーケンスを示すフローチャートである。
【図27】図26に対応する変換特性の様子を示す図で
ある。
【図28】改良例に係るサブルーチン“画像変換”のシ
ーケンスを示すフローチャートである。
【図29】図28に対応する変換特性の様子を示す図で
ある。
【符号の説明】
1…視線検出部、2…瞳孔径検出部、3…被写体検出
部、4…フィルム記録部、5…画像読み取り部、6…情
報読み取り部、7…画像変換部、8…表示部、9…出力
部。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a configuration of a line-of-sight detection camera and a printer device according to a first embodiment of the present invention. FIG. 2 is a diagram showing a light receiving output of light reflected from an eye of a light beam projected from a substantially optical axis. FIG. 3 is a diagram illustrating a state of a change in a detected image due to rotation of an eyeball. FIG. 4 is a diagram showing a state of rotation, a corneal reflection 95a, and a fundus reflection 95b when the center of the eyeball is fixed. FIG. 5 shows a shift of the eyeball, a corneal reflex 95a and a fundus reflex 95.
It is a figure showing a situation of b. FIG. 6 is a flowchart illustrating an operation of the eye-gaze detecting camera according to the first embodiment. FIG. 7 is a flowchart illustrating an operation of the printer according to the first embodiment. FIG. 8 is a diagram illustrating a configuration of a line-of-sight detection camera and a printer device according to a second embodiment, which further embodies the first embodiment. FIG. 9 is a diagram showing a detailed configuration of a visual line detection optical system. FIG. 10 is a diagram showing signals on the line sensor in FIGS. 9 (b) and 9 (c). FIG. 11 is a flowchart illustrating the operation of the eye-gaze detecting camera according to the second embodiment. FIG. 12 is a flowchart illustrating a sequence of a subroutine “line-of-sight detection 1”. FIG. 13 is a flowchart showing a sequence of a subroutine “line-of-sight detection 2”. FIG. 14 is a flowchart showing a subroutine “line-of-sight detection” sequence. FIG. 15 is a flowchart illustrating a sequence of a subroutine “signal processing”. FIG. 16 is a flowchart showing a sequence of a subroutine “pupil diameter detection”. FIG. 17 is a flowchart showing a sequence of a subroutine “information recording”. FIG. 18 is a diagram illustrating a configuration of a line sensor. FIG. 19 is a flowchart showing a sequence of integration time control. FIG. 20 is a flowchart showing a subroutine “ranging” sequence; FIG. 21 is a flowchart illustrating an operation of the printer according to the second embodiment. FIG. 22 is a flowchart showing a sequence of a subroutine “image conversion”. FIG. 23 is a flowchart showing a sequence of a subroutine “image conversion”. FIG. 24 is a diagram showing a conversion curve according to the second embodiment. FIG. 25 is a flowchart showing a subroutine “line-of-sight detection” sequence according to an improved example. FIG. 26 is a flowchart showing a sequence of a subroutine “image conversion” according to an improved example. FIG. 27 is a diagram illustrating a state of conversion characteristics corresponding to FIG. 26; FIG. 28 is a flowchart showing a sequence of a subroutine “image conversion” according to an improved example. FIG. 29 is a diagram illustrating a state of conversion characteristics corresponding to FIG. 28; [Description of Signs] 1 ... gaze detection unit, 2 ... pupil diameter detection unit, 3 ... subject detection unit, 4 ... film recording unit, 5 ... image reading unit, 6 ... information reading unit, 7 ... image conversion unit, 8 ... Display unit 9, output unit.
フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G03B 17/24 G02B 7/28 G03B 17/00 G03B 27/32 Continuation of the front page (58) Field surveyed (Int.Cl. 7 , DB name) G03B 17/24 G02B 7/28 G03B 17/00 G03B 27/32
Claims (1)
段と、 この視線検出手段によって検出された上記撮影者の眼の
位置情報に基づいて繰り返し主要被写体を検出する主要
被写体検出手段と、撮影者の瞳孔の大きさを検出する瞳孔検出手段と、 上記主要被写体検出手段によって検出された主要被写体
についての露出に関する情報、及び上記瞳孔検出手段に
よって検出された瞳孔の大きさに関する 情報をフィルム
上またはフィルムパトローネ上の記録媒体に記録する情
報記録手段と、を具備し、 上記フィルム上に露光された被写体像は、カメラ外部に
設けられたプリンタ装置の画像読取手段によりイメージ
信号に変換され、 上記イメージ信号は、上記プリンタ装置の階調変換手段
において上記記録媒体に記録された情報に基づいて主要
被写体を適正にプリントするように上記イメージ信号の
階調を変換することに用いられる ことを特徴とする視線
検出カメラ。(57) [Claims 1] A line of sight detecting means for detecting the movement of the photographer's eyes, and a main subject is repeated based on position information of the photographer's eyes detected by the line of sight detecting means. Main subject detecting means for detecting the size of the pupil of the photographer, and the main subject detected by the main subject detecting means
Information on the exposure of the pupil,
Information recording means for recording information on the detected pupil size on a film or a recording medium on a film cartridge, and the subject image exposed on the film is provided outside the camera.
The image is read by the image reading means of the printer provided.
Is converted into a signal, the image signal, the gradation conversion unit of the printer device
Based on the information recorded on the recording medium
Make sure that the image signal is
A gaze detection camera, which is used for converting gradation .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10539294A JP3414492B2 (en) | 1994-05-19 | 1994-05-19 | Eye-gaze detection camera and printer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10539294A JP3414492B2 (en) | 1994-05-19 | 1994-05-19 | Eye-gaze detection camera and printer |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07319037A JPH07319037A (en) | 1995-12-08 |
JP3414492B2 true JP3414492B2 (en) | 2003-06-09 |
Family
ID=14406376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10539294A Expired - Fee Related JP3414492B2 (en) | 1994-05-19 | 1994-05-19 | Eye-gaze detection camera and printer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3414492B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350086A (en) | 1999-06-03 | 2000-12-15 | Fuji Photo Film Co Ltd | Image processor, image output device and camera |
WO2011105004A1 (en) * | 2010-02-26 | 2011-09-01 | パナソニック株式会社 | Pupil detection device and pupil detection method |
-
1994
- 1994-05-19 JP JP10539294A patent/JP3414492B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07319037A (en) | 1995-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7672580B2 (en) | Imaging apparatus and method for controlling display device | |
CN101355652B (en) | Image pickup device and control method thereof | |
JP3647376B2 (en) | Viewpoint position detection apparatus, viewpoint position detection method, and stereoscopic image display system | |
JPH05500744A (en) | A camera with a function to highlight the subject and a function to detect movement. | |
JP5263310B2 (en) | Image generation apparatus, imaging apparatus, and image generation method | |
JP3788714B2 (en) | Imaging device and digital camera | |
US5987151A (en) | Apparatus for detecting visual axis | |
JP4398017B2 (en) | Ranging device | |
JP5109864B2 (en) | Electronic still camera | |
JP2021032927A (en) | Image capturing device and control method therefor | |
CN114650350A (en) | Gaze detection apparatus, gaze detection method, and computer-readable storage medium | |
JPH07151950A (en) | Camera | |
JP2010177860A (en) | Image composition apparatus, imaging apparatus, and image composition method | |
JP3414492B2 (en) | Eye-gaze detection camera and printer | |
JP4382911B2 (en) | camera | |
JP3192483B2 (en) | Optical equipment | |
JP2002214659A (en) | Camera with shake correcting function | |
JP2003241073A5 (en) | ||
JPS60177329A (en) | Hand-shake detector of camera | |
JP2013054256A (en) | Image pickup device | |
JP2005257869A (en) | Imaging apparatus | |
US20240085979A1 (en) | Recording device, image-capturing apparatus, control method, and recording system | |
JPH08206081A (en) | Photographing device | |
JP2952072B2 (en) | Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means | |
JP3211427B2 (en) | Eye gaze detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030304 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090404 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090404 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100404 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |