JPH07319037A - Visual-line detecting camera and printer device - Google Patents

Visual-line detecting camera and printer device

Info

Publication number
JPH07319037A
JPH07319037A JP10539294A JP10539294A JPH07319037A JP H07319037 A JPH07319037 A JP H07319037A JP 10539294 A JP10539294 A JP 10539294A JP 10539294 A JP10539294 A JP 10539294A JP H07319037 A JPH07319037 A JP H07319037A
Authority
JP
Japan
Prior art keywords
information
image
line
pupil
film
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10539294A
Other languages
Japanese (ja)
Other versions
JP3414492B2 (en
Inventor
Shinichi Kodama
晋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP10539294A priority Critical patent/JP3414492B2/en
Publication of JPH07319037A publication Critical patent/JPH07319037A/en
Application granted granted Critical
Publication of JP3414492B2 publication Critical patent/JP3414492B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Data Copying Or Recording (AREA)
  • Projection-Type Copiers In General (AREA)

Abstract

PURPOSE:To provide a visual-line detecting camera and a printer device which record information about the visual line of a photographer on film and restore an optimum image through subsequent processing according to film information. CONSTITUTION:A visual line detecting portion 1 detects the movement of a photographer's eye, a subject detecting portion 3 repeatedly detects main subjects for photography according to eye position information, and a film recording portion 4 records information about the plurality of main subjects for photography on film. An information reading portion 6 reads the information about the plurality of main subjects for photography from a storage medium, an image reading portion 5 converts an image of each subject for photography exposed on the film into an image signal, an image converting portion 7 converts the gradient of the image signal so that the plurality of main subjects for photography are properly printed, and an output portion 9 prints the image of each subject for photography according to the converted image signal.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、撮影者の眼からの情報
(視線情報と瞳孔大きさ情報)を検出し、当該情報をフ
ィルムに記録し、プリント時に該情報を基に画像変換を
行い、綺麗な写真を作成する視線検出カメラ及びプリン
タ装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects information from a photographer's eyes (gaze information and pupil size information), records the information on a film, and performs image conversion based on the information when printing. The present invention relates to a line-of-sight detection camera and a printer device that create beautiful photographs.

【0002】[0002]

【従来の技術】従来、カメラへの各種情報の入力は、例
えばダイアル、釦等によって行われており、入力情報が
増加するに従って操作環境は煩雑になっている。例え
ば、ファインダを覗く撮影者の視線方向を検出し、該視
線情報よりカメラに情報入力する技術は、特開昭63−
194237号公報、特開平3−87818号公報等に
より多数開示されている。
2. Description of the Related Art Conventionally, various kinds of information are input to a camera by using, for example, a dial or a button, and the operating environment becomes complicated as the input information increases. For example, a technique for detecting the line-of-sight direction of a photographer looking through a viewfinder and inputting information to the camera from the line-of-sight information is disclosed in Japanese Patent Laid-Open No. 63-
Many are disclosed in Japanese Patent Laid-Open No. 194237, Japanese Patent Laid-Open No. 3-87818, and the like.

【0003】また、検出方式等においても角膜,虹彩,
瞳孔,強膜(白目)等のどれかを用いて検出する方法が
多数開示されている(特開平1−160537号公報、
特開平2−206425号公報等)。
In the detection method, the cornea, iris,
A large number of methods for detection using any one of the pupil, the sclera (white eye), etc. have been disclosed (JP-A-1-160537).
JP-A-2-206425, etc.).

【0004】さらに、視線情報を記録して、視線情報を
基にプリント時に視線情報位置(主要被写体)を綺麗に
焼き付ける方法が開示されている(特開平4−1343
30号公報、特開平5−158132号公報)。また、
ディジタル画像処理においては階調変換処理等は一般的
に行われている。
Further, there is disclosed a method of recording visual line information and printing the visual line information position (main subject) neatly at the time of printing based on the visual line information (JP-A-4-1343).
No. 30, JP-A-5-158132). Also,
In digital image processing, gradation conversion processing and the like are generally performed.

【0005】[0005]

【発明が解決しようとする課題】前述の如く、画像処理
を基に最適な画像を再現する技術は一般に普及してい
る。しかしながら、最適画像を作成する担当者が撮影者
と異なる場合、どの部分の階調を変更するかの判断がで
きなく、最適な処理ができない。
As described above, a technique for reproducing an optimum image based on image processing has been widely used. However, when the person in charge of creating the optimum image is different from the photographer, it is not possible to determine which part of the gradation should be changed, and the optimum processing cannot be performed.

【0006】また、複数の主要被写体が存在する場合、
視線情報をフィルムに残して最適に処理しようとして
も、階調処理等行うことなく実現しても最適な画像を提
供することができない。さらに、注視している時の眼の
様子によって得られる画像は異なったものになる場合が
多い。
When there are a plurality of main subjects,
Even if the line-of-sight information is left on the film to be processed optimally, an optimum image cannot be provided even if it is realized without performing gradation processing or the like. Further, the image obtained depending on the state of the eye while gazing is often different.

【0007】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、撮影者の視線情報をフィ
ルムに記録し、該フィルムの情報を基に後処理にて最適
な画像を復元することにある。
The present invention has been made in view of the above problems, and an object thereof is to record the line-of-sight information of a photographer on a film and restore an optimum image by post-processing based on the information on the film. To do.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様による視線検出カメラは、撮影
者の眼の動きを検出する視線検出手段と、この視線検出
手段によって検出された上記撮影者の眼の位置情報に基
づいて繰り返し主要被写体を検出する主要被写体検出手
段と、この主要被写体検出手段によって検出された複数
の主要被写体の情報をフィルム上又はフィルムパトロー
ネ上の記憶媒体に記録する情報記録手段とを具備するこ
とを特徴とする。
In order to achieve the above-mentioned object, a line-of-sight detection camera according to a first aspect of the present invention includes a line-of-sight detection unit for detecting the movement of a photographer's eye and detection by the line-of-sight detection unit. Main subject detection means for repeatedly detecting a main subject based on the photographed eye position information of the photographer, and information of a plurality of main subjects detected by the main subject detection means on a film or on a film cartridge. And an information recording means for recording the information.

【0009】そして、第2の態様による視線検出カメラ
は撮影者の瞳孔の大きさを検出する瞳孔検出手段を具備
し、上記情報記録手段は上記瞳孔検出手段によって検出
された瞳孔の大きさを上記記録媒体に記録することを特
徴とする。
The line-of-sight detection camera according to the second aspect includes a pupil detecting means for detecting the size of the pupil of the photographer, and the information recording means uses the size of the pupil detected by the pupil detecting means as described above. It is characterized by recording on a recording medium.

【0010】さらに、第3の態様によるプリンタ装置
は、フィルム上又はフィルムパトローネ上の記憶媒体に
複数の主要被写体の情報が記録されているフィルムから
プリントするプリンタ装置において、上記記憶媒体から
上記複数の主要被写体情報を読み出す情報読出手段と、
上記フィルム上に露光された被写体像をイメージ信号に
変換する画像読取手段と、上記情報読出手段によって読
み出された上記複数の主要被写体情報に基づいて上記複
数の主要被写体が適正にプリントされるように上記イメ
ージ信号の階調を変換する階調変換手段と、この階調変
換手段によって変換された上記イメージ信号に基づいて
上記被写体像をプリントするプリント手段とを具備した
ことを特徴とする。
Further, the printer device according to the third aspect is a printer device for printing from a film in which information of a plurality of main subjects is recorded on a storage medium on a film or a film cartridge, wherein the plurality of storage media are used. An information reading means for reading the main subject information,
An image reading means for converting an object image exposed on the film into an image signal, and the plurality of main objects are properly printed based on the plurality of main object information read by the information reading means. Further, it is characterized by further comprising: a gradation converting means for converting the gradation of the image signal; and a printing means for printing the subject image based on the image signal converted by the gradation converting means.

【0011】[0011]

【作用】即ち、本発明の第1の態様による視線検出カメ
ラでは、視線検出手段は撮影者の眼の動きを検出し、主
要被写体検出手段は該視線検出手段によって検出された
上記撮影者の眼の位置情報に基づいて繰り返し主要被写
体を検出し、情報記録手段は該主要被写体検出手段によ
って検出された複数の主要被写体の情報をフィルム上又
はフィルムパトローネ上の記憶媒体に記録する。
That is, in the line-of-sight detection camera according to the first aspect of the present invention, the line-of-sight detection means detects the movement of the eye of the photographer, and the main subject detection means detects the eye of the photographer detected by the line-of-sight detection means. The main subject is repeatedly detected based on the position information of 1., and the information recording means records the information of the plurality of main subjects detected by the main subject detecting means in the storage medium on the film or the film cartridge.

【0012】そして、第2の態様による視線検出カメラ
では、瞳孔検出手段は撮影者の瞳孔の大きさを検出し、
上記情報記録手段は該瞳孔検出手段によって検出された
瞳孔の大きさを上記記録媒体に記録する。
In the line-of-sight detection camera according to the second aspect, the pupil detection means detects the size of the pupil of the photographer,
The information recording means records the size of the pupil detected by the pupil detecting means on the recording medium.

【0013】さらに、第3の態様によるプリンタ装置で
は、情報読出手段は上記記憶媒体から上記複数の主要被
写体情報を読み出し、画像読取手段は上記フィルム上に
露光された被写体像をイメージ信号に変換し、階調変換
手段は上記情報読出手段によって読み出された上記複数
の主要被写体情報に基づいて上記複数の主要被写体が適
正にプリントされるように上記イメージ信号の階調を変
換し、プリント手段は該階調変換手段によって変換され
た上記イメージ信号に基づいて上記被写体像をプリント
する。
Further, in the printer device according to the third aspect, the information reading means reads the plurality of main subject information from the storage medium, and the image reading means converts the subject image exposed on the film into an image signal. The gradation converting means converts the gradation of the image signal based on the plurality of main subject information read by the information reading means so that the plurality of main subjects are properly printed, and the printing means The subject image is printed based on the image signal converted by the gradation converting means.

【0014】[0014]

【実施例】先ず本発明の実施例について説明する前に、
本発明の実施例で採用する視線検出の原理について説明
する。視線方向を検出する方法としては種々の方法が挙
げられるが、ここではカメラに適用できる方法として既
に当業技術関係者においては良く知られている第1プル
キンエ像と称される角膜反射像と眼底の反射像、又は虹
採のエッジを用いて検出する方法について簡単に説明す
る。尚、構造的説明は既に公知である為、ここでは省略
する。
EXAMPLES Before describing the examples of the present invention,
The principle of line-of-sight detection used in the embodiments of the present invention will be described. There are various methods for detecting the line-of-sight direction. Here, as a method applicable to a camera, a corneal reflection image called a first Purkinje image and a fundus oculi which are already well known to those skilled in the art. A method of detecting using the reflection image or the edge of the rainbow collection will be briefly described. Since the structural description is already known, it is omitted here.

【0015】先ず図2には略光軸より投光された光束の
眼からの反射光の受光出力の様子を示し説明する。不図
示の眼球90に光を投光し、その反射像をとらえると受
光出力の高い第1プルキンエ像は反射光量が弱く反射像
のできる位置が異なる為、検出することは難しい。
First, FIG. 2 shows the manner in which the reflected light from the eye of the light beam projected from substantially the optical axis is received and output. When light is projected onto an eyeball 90 (not shown) and a reflected image thereof is captured, the first Purkinje image having a high received light output has a small amount of reflected light and a position where a reflected image can be formed is different, which makes it difficult to detect.

【0016】そして、眼球90に光を投光した時の眼底
からの反射光95bにより眼底像が瞳孔の周像である虹
採エッジ94のシルエットとして検出される。この眼底
からの反射像95bは第1プルキンエ像95aと共に図
2に示してあるが、この2つの像を用いて視線方向を検
出する。尚、符号91は虹採、92は強膜(白目)、9
3は瞳孔、94は虹採エッジをそれぞれ示している。
Then, the reflected light 95b from the fundus when the light is projected onto the eyeball 90 causes the fundus image to be detected as the silhouette of the rainbow sampling edge 94 which is the peripheral image of the pupil. The reflected image 95b from the fundus is shown in FIG. 2 together with the first Purkinje image 95a, and the gaze direction is detected using these two images. Incidentally, reference numeral 91 is a rainbow harvest, 92 is a sclera (white eye), 9
3 is a pupil, and 94 is a rainbow sampling edge.

【0017】次に図3には眼球の回転による検出像の変
化の様子を示し説明する。眼球90の光軸98と眼に投
光する光束とが平行である場合、図3(a)に示すよう
に、眼底像95bの中心即ち瞳孔中心と第1プリキンエ
像95aの中心が一致している。そして、眼球90の回
転した場合には、図3(b)に示すように光軸98が眼
球90の回転中心90cを中心に回転している。
Next, FIG. 3 shows how the detected image changes due to the rotation of the eyeball. When the optical axis 98 of the eyeball 90 and the light flux projected on the eye are parallel, as shown in FIG. 3A, the center of the fundus image 95b, that is, the center of the pupil and the center of the first Purkinje image 95a coincide with each other. There is. When the eyeball 90 rotates, the optical axis 98 rotates around the rotation center 90c of the eyeball 90 as shown in FIG.

【0018】この場合、眼底像95bの中心は眼からの
反射光を受光するセンサ画素列上の異なった位置に受光
できる。さらに、第1プルキンエ像95aの中心は眼底
像95bの中心とも相対的に異なる位置に受光する。こ
れは、角膜の前面に持つ曲面の中心が眼球の回転中心と
異なる為である。
In this case, the center of the fundus image 95b can be received at different positions on the sensor pixel row that receives the reflected light from the eye. Further, the center of the first Purkinje image 95a receives light at a position relatively different from the center of the fundus image 95b. This is because the center of the curved surface on the front surface of the cornea is different from the center of rotation of the eyeball.

【0019】従って、この2つの像のセンサ画素列に対
する絶対位置のずれと上記2つの像の相対的なずれよ
り、ファインダを覗く撮影者の眼球90の回転量とシフ
ト量を求めることができ、更には撮影者がどこを見てい
るか判別することができる。本発明では、視線検出像か
ら角膜反射像95a又は眼底反射像95bの少なくとも
一方を用いて検出する。
Therefore, the amount of rotation and the amount of shift of the eyeball 90 of the photographer looking into the viewfinder can be obtained from the displacement of the absolute positions of the two images with respect to the sensor pixel array and the relative displacement of the two images. Furthermore, it is possible to determine where the photographer is looking. In the present invention, detection is performed using at least one of the corneal reflection image 95a and the fundus reflection image 95b from the line-of-sight detection image.

【0020】次に図4には眼球中心が固定されるような
場合の回転と角膜反射95aと眼底反射95bの様子を
示し説明する。眼球中心が固定されるならば眼底反射9
5bの重心位置ix、角膜反射95aの重心位置pxの
み又は両方を含めた重心位置を検出すれば回転角は検出
できる。そして、図中、pxは角膜反射95aの重心位
置、ixは眼底反射95bの重心位置を示している。
Next, FIG. 4 shows the rotation and the corneal reflection 95a and the fundus reflection 95b in the case where the center of the eyeball is fixed. If the center of the eyeball is fixed, the fundus reflex 9
The rotation angle can be detected by detecting the barycentric position ix of 5b, the barycentric position px of the corneal reflection 95a, or the barycentric position including both. In the figure, px indicates the center of gravity of the corneal reflection 95a, and ix indicates the center of gravity of the fundus reflection 95b.

【0021】また、図4に示す眼底反射は一般に眼底か
らの反射光が多い所謂「赤目状態」である。明るい状態
で虹採が絞られた場合又は反射光が受光系に戻らない場
合である上記赤目状態でない場合には眼底反射95bの
出力はさらに低下する。尚、ファインダ中央から見た場
合、図4(a)は回転角0(基準)で中央、図4(b)
は回転角負で左側、図4(c)は回転角正で右側を見て
いることになる。
Further, the fundus reflection shown in FIG. 4 is generally a so-called "red eye state" in which a large amount of light is reflected from the fundus. The output of the fundus reflex 95b is further reduced when the rainbow is narrowed in a bright state or when the reflected light does not return to the light receiving system and the red eye state is not achieved. When viewed from the center of the finder, FIG. 4A shows the center at a rotation angle of 0 (reference), and FIG.
Indicates a left side with a negative rotation angle and a right side with a positive rotation angle in FIG.

【0022】次に図5には眼球がシフトと角膜反射95
aと眼底反射95bの様子を示し説明する。眼底反射9
5bの重心位置ix、角膜反射95aの重心位置pxの
み又は両方を含めた重心位置を検出すればおおまかまシ
フト量は検出できる。
Next, in FIG. 5, the eyeball shift and the corneal reflection 95
The state of a and the fundus reflection 95b will be described below. Fundus reflex 9
The approximate shift amount can be detected by detecting the barycentric position ix of 5b, the barycentric position px of the corneal reflection 95a, or the barycentric position including both.

【0023】そして、図中、pxは角膜反射95aの重
心位置、ixは眼底反射95bの重心位置を示してい
る。また、先に示した図4と同様に、眼底反射は一般に
赤目状態であり、赤目状態でない場合には眼底反射95
bの出力は更に低下する。尚、ファインダ中央から見た
場合には、図5(a)はシフト0(基準)で中央、図5
(b)はシフト量負で左側、図5(c)はシフト量正で
右側を見ていることになる。一般に、1回のシャッタシ
ーケンス、即ち1stレリーズ付近から2ndレリーズ
までにおいては、眼のシフトは大きく変化することはな
く、相対的な動きと基準位置を検出することで撮影者が
見ようとする方向を知ることができる。また、基準位置
検出はシーケンス内で行うようにすると良い。
In the figure, px indicates the position of the center of gravity of the corneal reflection 95a, and ix indicates the position of the center of gravity of the fundus reflection 95b. Further, similar to FIG. 4 described above, the fundus reflex is generally in the red-eye state, and when it is not in the red-eye condition, the fundus reflex 95
The output of b is further reduced. When viewed from the center of the finder, FIG. 5A shows the center with shift 0 (reference).
In FIG. 5B, the shift amount is negative and the left side is seen. In FIG. 5C, the shift amount is positive and the right side is seen. Generally, in one shutter sequence, that is, from the vicinity of the 1st release to the 2nd release, the eye shift does not greatly change, and the relative movement and the reference position are detected to determine the direction in which the photographer intends to see. I can know. Further, the reference position detection may be performed within the sequence.

【0024】以下、前述したような原理に基づく本発明
の実施例について説明する。先ず図1には本発明の第1
の実施例に係る視線検出カメラ及びプリンタ装置の構成
を示し説明する。視線検出カメラ側においては、視線検
出部1と瞳孔径検出部2の出力は被写体検出部3の入力
に接続され、該被写体検出部3の出力はフィルム記録部
4の入力に接続される。そして、フィルム記録部4はフ
ィルムを介してプリンタ装置側に情報を伝達する。一
方、プリンタ装置では、画像読み取り部5及び情報読み
取り部6の出力は画像変換部7の入力に接続され、該画
像変換部7の出力は表示部8と出力部9の入力に接続さ
れている。
An embodiment of the present invention based on the above principle will be described below. First, FIG. 1 shows a first embodiment of the present invention.
The configurations of the line-of-sight detection camera and the printer device according to the embodiment will be shown and described. On the side of the line-of-sight detection camera, the outputs of the line-of-sight detection unit 1 and the pupil diameter detection unit 2 are connected to the input of the subject detection unit 3, and the output of the subject detection unit 3 is connected to the input of the film recording unit 4. Then, the film recording unit 4 transmits the information to the printer device side via the film. On the other hand, in the printer device, the outputs of the image reading unit 5 and the information reading unit 6 are connected to the input of the image conversion unit 7, and the output of the image conversion unit 7 is connected to the inputs of the display unit 8 and the output unit 9. .

【0025】このような構成において、先ず視線検出カ
メラ側では、視線検出部1はファインダを覗いた撮影者
の視線方向を検出し、その情報を被写体検出部3に送
る。そして、瞳孔径検出部2は撮影者の瞳孔の大きさを
検出し、その情報を被写体検出部3に送る。被写体検出
部3は視線検出部1からの視線情報より1つ以上の主要
被写体を抽出し、瞳孔径検出部2からの瞳孔の大きさに
関する情報より対応する瞳孔径に関する情報を抽出す
る。フィルム記録部4は被写体検出部3にて検出された
1つ以上の主要被写体の情報と関連(主要被写体に対応
する瞳孔の大きさとその他の瞳孔の大きさに関する情
報)する瞳孔の大きさに関する情報をフィルムに記録
(磁気記録、光学式(バーコードの写し込み)記録)す
る。
In such a structure, first, on the side of the line-of-sight detection camera, the line-of-sight detection unit 1 detects the direction of the line-of-sight of the photographer looking into the finder and sends the information to the subject detection unit 3. Then, the pupil diameter detection unit 2 detects the size of the pupil of the photographer and sends the information to the subject detection unit 3. The subject detection unit 3 extracts one or more main subjects from the line-of-sight information from the line-of-sight detection unit 1, and extracts information about the corresponding pupil diameter from information about the pupil size from the pupil diameter detection unit 2. The film recording unit 4 is related to the information of one or more main subjects detected by the subject detection unit 3 (information about the size of the pupil corresponding to the main subject and other information about the size of the pupil), and information about the size of the pupil. On the film (magnetic recording, optical (barcode imprint) recording).

【0026】こうしてフィルムが現像処理され、プリン
タ装置に渡されると、プリンタ装置側において、画像読
み取り部5は画像情報をフィルムスキャナにて読み取り
画像情報を画像変換部7に送る。情報読み取り部6はフ
ィルムに記録(磁気記録までは光学記録)された情報
(視線により検出された主要被写体情報と瞳孔の大きさ
情報)を読み取り、主要被写体情報を画像変換部7に送
る。画像変換部7は画像情報と主要被写体情報と瞳孔の
大きさ情報より階調変換した画像を表示部8に表示する
(変換する前の画像も表示可能)と共に出力部9に画像
情報を送る。そして、出力部9は変換画像が確認された
後に出力する。
When the film is developed and passed to the printer device in this way, the image reading unit 5 on the printer device side reads the image information with a film scanner and sends the image information to the image conversion unit 7. The information reading unit 6 reads the information recorded on the film (optical recording up to magnetic recording) (main subject information and pupil size information detected by the line of sight), and sends the main subject information to the image conversion unit 7. The image conversion unit 7 displays an image whose gradation has been converted from the image information, the main subject information, and the size information of the pupil on the display unit 8 (the image before conversion can also be displayed) and sends the image information to the output unit 9. Then, the output unit 9 outputs after the converted image is confirmed.

【0027】以下、図6のフローチャートを参照して、
視線検出カメラ側のシーケンスを説明する。視線検出カ
メラ側のシーケンス開始すると、視線検出部1が視線情
報の処理(視線検出と1つ以上の主要被写体)を行い
(ステップS1)、瞳孔径検出部2が瞳孔の大きさ検出
の処理を行う(ステップS2)。そして、被写体検出部
3がAF、露出に関するシーケンスを行い(ステップS
3)、フィルムの巻き上げ(又は巻き戻し)に同期して
フィルム記録部4が視線により検出された1つ以上の主
要被写体情報と瞳孔の大きさ情報を記録し(ステップS
4)、本シーケンスを終了する(ステップS5)。
Hereinafter, with reference to the flowchart of FIG.
The sequence on the side of the line-of-sight detection camera will be described. When the sequence on the side of the line-of-sight detection camera is started, the line-of-sight detection unit 1 processes the line-of-sight information (line-of-sight detection and one or more main subjects) (step S1), and the pupil diameter detection unit 2 performs processing of pupil size detection. Perform (step S2). Then, the subject detection unit 3 performs a sequence regarding AF and exposure (step S
3) In synchronization with film winding (or rewinding), the film recording unit 4 records one or more main subject information detected by the line of sight and pupil size information (step S
4) Then, this sequence is finished (step S5).

【0028】次に図7のフローチャートを参照してプリ
ンタ側のシーケンスを説明する。プリンタ装置側のシー
ケンス開始すると、情報読み取り部6がフィルム、即ち
現像処理終了したフィルムに記録された1つ以上の主要
被写体情報と瞳孔の大きさを読み込み(ステップS1
1)、画像読み取り部5が画像情報の読み込みを行う
(ステップS12)。そして、この読み取った画像情報
の表示と主要被写体の指示表示をフラッシング、丸印等
により行い(ステップS13)、画像変換部7が表示画
像に対して階調変換の処理と確認を行い(ステップS1
4)、表示部8が変換された画像を表示する(ステップ
S15)。この確認後、出力部9より画像を出力し(ス
テップS16)、本シーケンスを終了する(ステップS
17)。
Next, the sequence on the printer side will be described with reference to the flowchart of FIG. When the sequence on the printer device side is started, the information reading unit 6 reads one or more pieces of main subject information and the size of the pupil recorded on the film, that is, the film that has been developed (step S1).
1) The image reading unit 5 reads image information (step S12). Then, the display of the read image information and the indication of the main subject are performed by flashing, circles, or the like (step S13), and the image conversion unit 7 performs gradation conversion processing and confirmation on the display image (step S1).
4), the display unit 8 displays the converted image (step S15). After this confirmation, an image is output from the output unit 9 (step S16), and this sequence ends (step S).
17).

【0029】尚、確認にてNGの場合等に手動にて階調
変換の特性を変更するようにしてもよい。更に表示部8
と出力部9の画像階調は合わせ込みをしてもよい。フィ
ルムに記録される情報が主要被写体情報のみの場合、1
つ以上の主要被写体位置の画像をスキャンしてフィルム
の各主要被写体位置の濃度より階調を決定し、瞳孔の大
きさ情報のみの場合、瞳孔の大きさ変化量とフィルムの
各ブロック(画面を複数のブロックに分割)の濃度に応
じて階調を決定するようにしてもよい。また、スキャナ
のダイナミックレンジを確保するためにスキャナの積分
時間を変えて複数回スキャンし、積分時間にて補正した
画像を用いて処理するとよい。
Note that the gradation conversion characteristics may be manually changed when the confirmation is NG. Further, the display unit 8
The image gradation of the output unit 9 may be adjusted. If the information recorded on the film is only the main subject information, 1
When the images of three or more main subject positions are scanned and the gradation is determined based on the density of each main subject position on the film, and only pupil size information is used, the pupil size change amount and each film block (screen The gradation may be determined according to the density of (divided into a plurality of blocks). Further, in order to secure the dynamic range of the scanner, it is advisable to change the integration time of the scanner and perform a plurality of scans, and process using the image corrected with the integration time.

【0030】次に図8には本発明の第1の実施例を更に
具現化した第2の実施例に係る視線検出カメラ及びプリ
ンタ装置の構成を示し説明する。尚、この第2の実施例
では1次元の視線検出にて実現しているが、2次元的に
検出すれば更に精度が向上することは勿論である。
Next, FIG. 8 shows the constructions of the visual axis detection camera and the printer apparatus according to the second embodiment which further embodies the first embodiment of the present invention. In the second embodiment, the one-dimensional line-of-sight detection is used, but it goes without saying that the two-dimensional detection improves the accuracy.

【0031】この図8に示されるように、視線検出カメ
ラ側では、測光部23の出力はKCPU21(カメラ側
CPU)の入力に接続され、I/F回路22はLED回
路28、ラインセンサ24、KCPU21に接続され、
LED回路28はI/F回路22、ファインダ光学系2
5に接続されている。さらに、ラインセンサ24はI/
F回路22、ファインダ光学系25に接続され、ファイ
ンダ光学系25はLED回路28、ラインセンサ24と
光学的に接続されると共に撮影者の眼と撮影シーンとも
光学的に接続されている。そして、巻き上げ・巻き戻し
回路26,磁気回路27はKCPU21とフィルム29
に接続されている。
As shown in FIG. 8, on the side of the line-of-sight detection camera, the output of the photometry unit 23 is connected to the input of the KCPU 21 (camera side CPU), the I / F circuit 22 is the LED circuit 28, the line sensor 24, Connected to the KCPU21,
The LED circuit 28 is the I / F circuit 22, the finder optical system 2
Connected to 5. Further, the line sensor 24 is I /
The F circuit 22 and the finder optical system 25 are connected to each other. The finder optical system 25 is optically connected to the LED circuit 28 and the line sensor 24, and is also optically connected to the photographer's eyes and a shooting scene. The winding / rewinding circuit 26 and the magnetic circuit 27 are connected to the KCPU 21 and the film 29.
It is connected to the.

【0032】一方、プリンタ側では、磁気読み取り回路
32はフィルム30(現像済み)に接続され、ファルム
スキャナ33はフィルム30、PCPU31(プリンタ
側のCPU)と画像メモリ34に接続される。表示回路
35は画像メモリ34とPCPU31に接続される。出
力画像メモリ36は画像メモリ34,PCPU31とプ
リント部37に接続される。尚、AFに関しては公知の
マルチAF(例えばスキャンAF:特開平4−3248
07号公報等に記載)を用いるとよい。
On the other hand, on the printer side, the magnetic reading circuit 32 is connected to the film 30 (developed), and the film scanner 33 is connected to the film 30, the PCPU 31 (CPU on the printer side) and the image memory 34. The display circuit 35 is connected to the image memory 34 and the PCPU 31. The output image memory 36 is connected to the image memory 34, the PCPU 31 and the printing unit 37. Regarding AF, known multi-AF (for example, scan AF: Japanese Patent Laid-Open No. 4-3248)
No. 07, etc.) is preferably used.

【0033】このような構成にて、カメラ側において、
測光部23は測光情報をKCPU22に送る。視線検出
のブロックはI/F回路22がLED回路28とライン
センサ24を制御すると共にKCPU21と相互に情報
通信を行い、LED回路28はファインダ光学系25の
一部を介して光束を眼に投光し、ラインセンサ24は眼
からの反射光束をファインダ光学系25を介して取り込
む。KCPU22は視線検出ブロックからの眼の画像情
報より視線方向と瞳孔の大きさに関する情報を抽出し、
その情報より主要被写体に関する情報を1つ以上抽出
し、瞳孔の大きさ情報・測光情報・露出情報と共に磁気
回路27に伝達し、巻き上げ・巻き戻し回路26を制御
して磁気信号にてフィルム29に記録する。
With such a structure, on the camera side,
The photometric unit 23 sends photometric information to the KCPU 22. In the line-of-sight detection block, the I / F circuit 22 controls the LED circuit 28 and the line sensor 24 and mutually communicates information with the KCPU 21, and the LED circuit 28 projects a light beam to the eye through a part of the finder optical system 25. Then, the line sensor 24 takes in the reflected light flux from the eye through the finder optical system 25. The KCPU 22 extracts information about the line-of-sight direction and the size of the pupil from the image information of the eye from the line-of-sight detection block,
One or more pieces of information about the main subject are extracted from the information and transmitted to the magnetic circuit 27 together with pupil size information, photometric information, and exposure information, and the winding / rewinding circuit 26 is controlled to the film 29 by a magnetic signal. Record.

【0034】一方、プリンタ装置側において、磁気読み
取り装置32はフィルム30より磁気にてフィルム30
に記録されたカメラからの情報を読み出し該情報をPC
PU31に送る。フィルムスキャナ33はPCPU31
の制御信号(測光情報と露出情報より最適なスキャン速
度を設定)を受けフィルム30より画像情報を読み取り
画像メモリ34に送る。PCPU31は主要被写体情報
と画像に基づいて主要被写体情報を表示回路35に送る
と共に、磁気読み取り装置の情報に基づいて階調変換
(テーブル変換、関数変換)を行い、処理した画像を表
示確認すると共に、作成した画像を出力画像メモリ34
に送る。表示回路35は画像メモリ34に格納された画
像とPCPU31からの主要被写体情報によって画像表
示と主要被写体表示を行う。出力画像メモリ36は新た
に作成された画像を格納する。プリンタ装置37は作成
された画像を出力する。
On the other hand, on the printer device side, the magnetic reading device 32 is magnetized from the film 30 rather than the film 30.
Read the information from the camera recorded in the
Send to PU31. The film scanner 33 is the PCPU 31
Of the control signal (the optimum scanning speed is set based on the photometric information and the exposure information), the image information is read from the film 30 and sent to the image memory 34. The PCPU 31 sends the main subject information to the display circuit 35 based on the main subject information and the image, and also performs the gradation conversion (table conversion, function conversion) based on the information of the magnetic reading device to confirm the display of the processed image. , The created image is output image memory 34
Send to. The display circuit 35 performs image display and main subject display based on the image stored in the image memory 34 and main subject information from the PCPU 31. The output image memory 36 stores the newly created image. The printer device 37 outputs the created image.

【0035】ここで、図9には視線検出光学系の詳細な
構成を示し説明する。図9(a)には光学的配置を示
す。検出センサは蓄積型ラインセンサを用いて眼からの
反射光を検出する。投光光源にはLED0,LED1の
2ケを用い、LED0は検出ラインセンサ上に赤目像が
発生するように配置し、LED1は検出ラインセンサ上
に赤目像が発生しないようにLED0の投光光軸に対し
て2〜5゜の角度を持って投光するように配置する。こ
のLED0,LED1より投光された光はビームスプリ
ッタを介して眼に投光され、眼からの反射光は再度ビー
ムスプリッタを介して視線光学系、ラインセンサに導か
れる。
Here, FIG. 9 shows the detailed construction of the visual axis detecting optical system for explanation. FIG. 9A shows an optical arrangement. The detection sensor detects reflected light from the eye using a storage line sensor. Two light sources, LED0 and LED1, are used as the light source, LED0 is arranged so that a red-eye image is generated on the detection line sensor, and LED1 is a light-projected light of LED0 so that a red-eye image is not generated on the detection line sensor. It is arranged so that the light is projected at an angle of 2 to 5 ° with respect to the axis. The light projected from the LEDs 0 and 1 is projected onto the eye through the beam splitter, and the reflected light from the eye is guided again to the line-of-sight optical system and line sensor through the beam splitter.

【0036】図9(b),(c)はLED0,LED1
を投光した場合の眼の像の様子を示す。詳細には、図9
(b)はLED0からの投光でプルキンエ像と赤目像が
検出された様子を示しており、図9(c)はLED1か
らの投光でプルキンエ像はあるが赤目像は検出できない
様子を示している。
9 (b) and 9 (c) show LED0 and LED1.
7 shows a state of an image of an eye when is projected. For details, see FIG.
FIG. 9B shows a state in which a Purkinje image and a red-eye image are detected by the light projected from LED0, and FIG. 9C shows a state in which the Purkinje image is present but the red-eye image cannot be detected by the light projected from LED1. ing.

【0037】尚、LED0,LED1によってできるプ
ルキンエ像の位置は、x軸方向には同じ位置にできるよ
うにLED0,LED1を配置する(検出センサ上にて
プルキンエ像の検出方向に対して直交する位置に光源を
配置)。
The positions of the Purkinje images formed by the LEDs 0 and LED1 are arranged so that they can be located at the same position in the x-axis direction (positions on the detection sensor orthogonal to the detection direction of the Purkinje images). Light source).

【0038】次に図10には図9(b),(c)のライ
ンセンサ上の信号を示し説明する。図10(c)の像は
図10(a)の信号と図10(b)の信号の差分処理を
行った結果を示しており、赤目像のみが抽出されている
のが判る。従って、この図10(c)に示される像より
赤目の重心(瞳孔の重心)位置と最大値(プルキンエ像
位置)が検出され、視線方向が判定でき、更には赤目の
両端エッジにて瞳孔の大きさを検出することもできる。
Next, FIG. 10 shows the signals on the line sensor shown in FIGS. 9B and 9C for explanation. The image in FIG. 10C shows the result of the difference processing of the signal in FIG. 10A and the signal in FIG. 10B, and it can be seen that only the red-eye image is extracted. Therefore, from the image shown in FIG. 10C, the position of the center of gravity of the red eye (center of the pupil) and the maximum value (Purkinje image position) can be detected, and the line-of-sight direction can be determined. It is also possible to detect the size.

【0039】以下、図11のフローチャートを参照して
第2の実施例における視線検出カメラ側のシーケンスを
説明する。カメラシーケンスの開始すると、シーケンス
のイニシャライズを行う。即ち、ここでは変数iを0に
設定し、フーカスポイントを中央に設定する(ステップ
S21)。続いて、lstレリーズの判定を行う(ステ
ップS22)。
The sequence on the side of the line-of-sight detecting camera in the second embodiment will be described below with reference to the flowchart of FIG. When the camera sequence starts, the sequence is initialized. That is, here, the variable i is set to 0 and the fucus point is set to the center (step S21). Then, the 1st release is determined (step S22).

【0040】そして、lstレリーズスイッチがOFF
の場合にはステップS31へ移行し、lstレリーズス
イッチがONの場合には、サブルーチン“視線検出1”
を実行してlstレリーズに同期した視線検出を行う
(ステップS23)。
Then, the 1st release switch is turned off.
If it is, the process proceeds to step S31, and if the 1st release switch is ON, the subroutine "line of sight detection 1"
Is performed to detect the line of sight in synchronization with the 1st release (step S23).

【0041】即ち、図12のフローチャートに示される
ように、サブルーチン“視線検出1”を開始すると、後
述するサブルーチン“視線検出”を実行し(ステップS
32)、視線ブロックデータをメモリE(i)、瞳孔の
大きさをメモリP(i)に格納し(ステップS33)、
メインルチンにリターンする(ステップS34)。
That is, as shown in the flowchart of FIG. 12, when the subroutine "visual axis detection 1" is started, a subroutine "visual axis detection" which will be described later is executed (step S
32), the line-of-sight block data is stored in the memory E (i), and the size of the pupil is stored in the memory P (i) (step S33).
The process returns to the main routine (step S34).

【0042】続いて、サブルーチン“視線検出2”を実
行して連続した視線検出を行う(ステップS24)。即
ち、図13のフローチャートに示されるように、サブル
ーチン“視線検出2”を開始すると、変数iをインクリ
メントした後(ステップS35)、後述するサブルーチ
ン“視線検出”を実行し(ステップS36)。視線ブロ
ックデータをメモリE(i)、瞳孔の大きさをメモリP
(i)に格納し(ステップS37)、メインルーチンに
リターンする(ステップS38)。
Subsequently, the subroutine "visual axis detection 2" is executed to perform continuous visual axis detection (step S24). That is, as shown in the flowchart of FIG. 13, when the subroutine "visual axis detection 2" is started, the variable i is incremented (step S35), and then the subroutine "visual axis detection" to be described later is executed (step S36). The line-of-sight block data is stored in the memory E (i), and the size of the pupil is stored in the memory P.
It is stored in (i) (step S37) and the process returns to the main routine (step S38).

【0043】次いで、KCPU21は、再度lstレリ
ーズの判定を行い(ステップS25)、lstレリーズ
スイッチがOFFの場合にはステップS31へ移行し、
lstレリーズスイッチがONの場合には2ndレリー
ズの判定を行う(ステップS26)。そして、2ndレ
リーズスイッチがOFFの場合にはステップS24に戻
り、2ndレリーズスイッチがONの場合にはマルチス
キャン測距を行う。ここでは、先にサブルーチン“視線
検出1”にて検出された情報に応じてサブルーチン“測
距”を実行し測距ポイントを設定する(ステップS2
7)。
Next, the KCPU 21 determines again the 1st release (step S25), and when the 1st release switch is OFF, moves to step S31,
If the 1st release switch is ON, the second release is determined (step S26). If the 2nd release switch is OFF, the process returns to step S24, and if the 2nd release switch is ON, multi-scan distance measurement is performed. Here, the subroutine "distance measurement" is executed in accordance with the information previously detected in the subroutine "line-of-sight detection 1" to set the distance measurement point (step S2).
7).

【0044】即ち、図20のフローチャートに示される
ように、サブルーチン“測距”を開始するとマルチ測距
を行い(ステップS121)、データE(0)の評価を
行う(ステップS122)。そして、E(0)=0でな
い場合には、視線データを用いない公知の評価AFのア
ルゴリズムにてAFポイントを設定し(ステップS12
3)、E(0)=0の場合には、E(0)データの測距
ブロックの情報にてAFポイントを設定する(ステップ
S124)。さらに、AFポイントの測距情報にてレン
ズ駆動量を算出し(ステップS125)、本シーケンス
を抜けてメインルーチンに戻る(ステップS126)。
That is, as shown in the flowchart of FIG. 20, when the subroutine "distance measurement" is started, multi-distance measurement is performed (step S121), and the data E (0) is evaluated (step S122). If E (0) = 0 is not satisfied, an AF point is set by a known evaluation AF algorithm that does not use the line-of-sight data (step S12).
3) If E (0) = 0, the AF point is set by the information of the distance measurement block of the E (0) data (step S124). Further, the lens drive amount is calculated based on the distance measurement information of the AF point (step S125), and the process exits this sequence and returns to the main routine (step S126).

【0045】次いで、KCPU21は、撮影シーケンス
(レンズ駆動、露出決定、露光)を行い(ステップS2
8)、巻き上げ開始し(ステップS29)、巻き上げに
同期してフィルム29に情報記録し(ステップS3
0)、本シーケンスを終了する(ステップS31)。
Next, the KCPU 21 performs a photographing sequence (lens drive, exposure determination, exposure) (step S2).
8) The winding is started (step S29), and the information is recorded on the film 29 in synchronization with the winding (step S3).
0), this sequence is ended (step S31).

【0046】このステップS30で実行されるサブルー
チン“情報記録”のシーケンスは図17に示される。即
ち、サブルーチン“情報記録”を開始すると、lstレ
リーズから2ndレリーズまでの期間の眼の動きの検出
データE(i)より各ブロック毎のヒストグラム処理と
検出回数での正規化を行い(ステップS81)、所定値
以上のブロックより上位3ブロックを選択しブロック情
報を出力する(ステップS82)。そして、対応するブ
ロックの瞳孔の大きさ情報を出力し(ステップS8
3)、その他の瞳孔の大きさ情報を出力し(ステップS
84)、本シーケンスを抜ける(ステップS85)。
The sequence of the subroutine "information recording" executed in step S30 is shown in FIG. That is, when the subroutine "information recording" is started, histogram processing for each block and normalization of the number of detections are performed from the eye movement detection data E (i) in the period from the 1st release to the 2nd release (step S81). , The upper 3 blocks are selected from the blocks having a predetermined value or more, and block information is output (step S82). Then, the size information of the pupil of the corresponding block is output (step S8).
3) and output other pupil size information (step S
84) and this sequence is exited (step S85).

【0047】次に図14のフローチャートを参照して上
記サブルーチン“視線検出”のシーケンスを説明する。
サブルーチン“視線検出”を開始すると、イニシャライ
ズを行い(ステップS41)、センサのリセットを行い
LED0を投光し(ステップS42)、センサ信号D0
を検出する(ステップS43)。続いて、センサのリセ
ットを行いLED1を投光し(ステップS44)、セン
サ信号D1を検出する(ステップS45)。そして、こ
の検出信号D0,D1にて視線を検出する信号処理を行
い(ステップS46)、本シーケンスを抜ける(ステッ
プS47)。
Next, the sequence of the above-mentioned subroutine "line-of-sight detection" will be described with reference to the flowchart of FIG.
When the subroutine "line-of-sight detection" is started, initialization is performed (step S41), the sensor is reset and LED0 is projected (step S42), and the sensor signal D0 is output.
Is detected (step S43). Then, the sensor is reset, the LED 1 is projected (step S44), and the sensor signal D1 is detected (step S45). Then, signal processing for detecting the line of sight by the detection signals D0 and D1 is performed (step S46), and this sequence is exited (step S47).

【0048】上記ステップS45では、図15のフロー
チャートに示されるように、サブルーチン“信号処理”
を開始すると、検出したデータD0,D1に所定の重み
付けを行い、データD(D=a×D0−b×D1;a,
b所定の変数)を作成する(ステップS51)。そし
て、データDにて重心位置xdを検出し(ステップS5
2)、データD0よりMAX値位置(MAX値が複数あ
る場合はMAXデータ群の重心位置)x0とMAX値M
0を検出し(ステップS53)、データD1よりMAX
値位置(MAX値が複数ある場合はMAXデータ群の重
心位置)x1とMAX値M1を検出する(ステップS5
4)。
In step S45, the subroutine "signal processing" is executed as shown in the flowchart of FIG.
Is started, the detected data D0 and D1 are weighted in a predetermined manner, and the data D (D = a × D0−b × D1; a,
b predetermined variable) is created (step S51). Then, the center of gravity position xd is detected from the data D (step S5
2), the MAX value position (the center of gravity position of the MAX data group when there are a plurality of MAX values) x0 and the MAX value M from the data D0
0 is detected (step S53), MAX is obtained from the data D1.
A value position (the barycentric position of the MAX data group when there are a plurality of MAX values) x1 and a MAX value M1 are detected (step S5).
4).

【0049】続いて、x0,x1のズレ量の評価(眼の
動き量を評価)を行う(ステップS55)。そして、|
x0−x1|<εでない場合にはステップS62に移行
し、|x0−x1|<εの場合にはデータD0より平均
値Av0を求める(ステップS56)。次いで、データ
D0のMAX値M0と平均値Av0の差分を評価(kは
所定値)し(ステップS57)、M0−Av0>kでな
い場合にはステップS62へ移行し、M0−Av0>k
の場合にはデータD1より平均値Av1を求める(ステ
ップS58)。続いて、データD1のMAX値M1と平
均値Av1の差分を評価(kは所定値)し(ステップS
59)、M1−Av1>kでない場合にはステップS6
2へ移行し、M1−Av1>kの場合には検出信号Dよ
り瞳孔径dpを検出する(ステップS60)。
Subsequently, the amount of deviation between x0 and x1 is evaluated (the amount of eye movement is evaluated) (step S55). And |
If x0-x1 | <ε, the process proceeds to step S62, and if | x0-x1 | <ε, the average value Av0 is obtained from the data D0 (step S56). Next, the difference between the MAX value M0 of the data D0 and the average value Av0 is evaluated (k is a predetermined value) (step S57), and if not M0-Av0> k, the process proceeds to step S62 and M0-Av0> k.
In this case, the average value Av1 is obtained from the data D1 (step S58). Subsequently, the difference between the MAX value M1 of the data D1 and the average value Av1 is evaluated (k is a predetermined value) (step S
59), if M1-Av1> k is not satisfied, step S6.
2, the pupil diameter dp is detected from the detection signal D when M1-Av1> k (step S60).

【0050】このステップS60で実行されるサブルー
チン“瞳孔径検出”のシーケンスは図16(a)に示さ
れる通りである。即ち、サブルーチン“瞳孔径検出”を
開始すると、検出データDの信号を所定の出力にて2値
化し(ステップS71)、図16(b)に示される如く
x軸方向に2値データの変化位置xf,xgを検出する
(ステップS72)。そして、瞳孔の大きさを測定(d
p=xg−xf)し(ステップS73)、本シーケンス
を抜ける(ステップS74)。
The sequence of the "pupil diameter detection" subroutine executed in step S60 is as shown in FIG. 16 (a). That is, when the subroutine "pupil diameter detection" is started, the signal of the detection data D is binarized by a predetermined output (step S71), and the change position of the binary data in the x-axis direction as shown in FIG. 16 (b). xf and xg are detected (step S72). Then, measure the size of the pupil (d
p = xg-xf) (step S73), and this sequence is exited (step S74).

【0051】こうして図15のシーケンスに戻ると、検
出された赤目の重心位置xdとプルキンエ像位置x0よ
り検出ブロックを決定する(ブロックは1〜N)(ステ
ップS61)。一方、ステップS62では検出ブロック
を0(存在しないブロックNo)に設定し、本シーケン
スを抜ける(ステップS63)。
Returning to the sequence of FIG. 15 in this way, a detection block is determined from the detected red-eye barycentric position xd and Purkinje image position x0 (blocks 1 to N) (step S61). On the other hand, in step S62, the detection block is set to 0 (block number that does not exist), and this sequence is exited (step S63).

【0052】尚、ステップS55では、検出信号D0,
D1での眼の動きの判定を行っており、ステップS5
7,S59では、まばたきの判定を行っている。また、
ファインダ光学系に内面反射等のノズル信号源がある場
合、予めファインダの接眼側を遮光して各LEDを点灯
して検出したノズル信号をDd0,Dd1検出しておい
て、Dd=a×Dd0−b×Dd1(a,bは所定の変
数)とし、信号Dに検出信号とノイズ信号Ddの差分を
格納するとよい。
In step S55, the detection signals D0,
The determination of the eye movement in D1 is performed, and step S5
In step S59, the determination of blinking is performed. Also,
When the finder optical system has a nozzle signal source such as internal reflection, the nozzle signals detected in advance by shielding the eyepiece side of the finder and turning on the respective LEDs to detect Dd0 and Dd1 are calculated as Dd = a × Dd0− b × Dd1 (a and b are predetermined variables), and the difference between the detection signal and the noise signal Dd may be stored in the signal D.

【0053】ここで、図18にはラインセンサの構成を
示し説明する。この図18(a)はラインセンサのブロ
ック構成図を示しており、BSは光電変換素子で構成さ
れている。そして、DBSはBSを遮光して暗電流の補
正用の基本ブロックである。さらに、シフトレジスタは
KCPU21からの制御信号にて各BSを駆動制御す
る。各BSはKCPU21の制御信号(T),(C)及
びBS自体が出力するモニタ信号(M)にて積分制御さ
れる。積分制御はピーク値検出(どれかのBSが所定レ
ベルに達したら積分を終了する信号を出力する)と時間
制御を行う。信号(M)はKCPU21に記録され信号
(T)として次の積分開始までホールドされCは信号を
保持する。さらに、眼の映像はシフトレジスタの信号に
応じて暗電流差分を消去し増幅後、KCPU21のA/
D回路に送られる。そして、積分時間制御は最も明るい
状態(赤目発生時)にて決定され、赤目非発生時の積分
時間は赤目発生時の積分時間で制御信号(T)で決定さ
れる。
Here, the structure of the line sensor is shown in FIG. 18 and will be described. FIG. 18A shows a block diagram of the line sensor, and BS is composed of a photoelectric conversion element. The DBS is a basic block for dark current correction by shielding the BS. Further, the shift register drives and controls each BS by a control signal from the KCPU 21. Each BS is integrated and controlled by the control signals (T) and (C) of the KCPU 21 and the monitor signal (M) output from the BS itself. The integration control performs peak value detection (when one of the BSs reaches a predetermined level, a signal for ending the integration is output) and time control. The signal (M) is recorded in the KCPU 21 and held as the signal (T) until the next integration is started, and C holds the signal. Further, the image of the eye is erased by the dark current difference in accordance with the signal of the shift register, amplified, and then A / A of the KCPU 21.
It is sent to the D circuit. Then, the integration time control is determined in the brightest state (when red eye occurs), and the integration time when red eye does not occur is determined by the control signal (T) as the integration time when red eye occurs.

【0054】さらに、図18(b)はBSの内部回路を
示す図である。PDで光電変換され積分制御ようのゲー
トG02を介してコンデンサCに蓄積され、ゲートG0
1はPD,CのリセットをG02と共に行う。ゲートG
03は読み出し増幅を行い、ゲートG04はシフトレジ
スタの信号に応じて信号を読み出す。そして、ダイオー
ドD01はピーク値検出を行う。
Further, FIG. 18B is a diagram showing the internal circuit of the BS. It is photoelectrically converted by PD and is accumulated in the capacitor C through the gate G02 for integration control, and the gate G0
1 resets PD and C together with G02. Gate G
03 performs read amplification, and the gate G04 reads a signal according to the signal of the shift register. Then, the diode D01 detects the peak value.

【0055】以下、図19のフローチャートを参照して
積分時間制御のシーケンスを説明する。積分シーケンス
を開始すると、センサやタイマをリセットし(ステップ
S101)、投光LED0の判定を行う(ステップS1
02)。そして、LED0投光の場合には積分開始と同
時にタイマをスタートする(ステップS103)。
The sequence of integration time control will be described below with reference to the flowchart of FIG. When the integration sequence is started, the sensor and the timer are reset (step S101), and the light emitting LED0 is determined (step S1).
02). Then, in the case of LED0 light projection, the timer is started at the same time when the integration is started (step S103).

【0056】続いて、タイマtの判定を行い(ステップ
S104)、t>td(tdは所定のリミット値)の場
合にはステップS108へ移行し、t>tdでない場合
には積分モニタ(ピーク値検出)信号の判定を行う(ス
テップS105)。
Subsequently, the timer t is determined (step S104). If t> td (td is a predetermined limit value), the process proceeds to step S108. If t> td is not satisfied, the integration monitor (peak value is reached). The detection) signal is determined (step S105).

【0057】そして、モニタ信号OFFの場合にはステ
ップS104へ戻り積分の継続を行う。モニタ信号ON
の場合には積分終了し(ステップS106)、積分時間
tcをKCPU21で記録し(ステップS107)、信
号の読み出しを行い(ステップS113)、リターンす
る(ステップS114)。
If the monitor signal is OFF, the process returns to step S104 to continue the integration. Monitor signal ON
In the case of, the integration is completed (step S106), the integration time tc is recorded by the KCPU 21 (step S107), the signal is read (step S113), and the process returns (step S114).

【0058】上記ステップS102において、LED0
が投光されない場合には、積分スタートと同時にタイマ
ースタートする(ステップS109)。そして、積分モ
ニタ(ピーク値検出:モニタ判定レベルはステップS1
07より高く設定する)信号の判定を行い(ステップS
110)、モニタ信号ONの場合にはステップS108
へ移行し、モニタ信号OFFの場合にはタイマtの判定
を行う(ステップS111)。さらに、t>tcでない
場合には(ステップS111)、ステップS110へ戻
り積分を継続する。
In step S102, LED0
If is not emitted, the timer is started at the same time as the integration is started (step S109). Then, the integration monitor (peak value detection: monitor determination level is step S1).
Signal is set higher than 07) (step S)
110), if the monitor signal is ON, step S108
If the monitor signal is OFF, the timer t is determined (step S111). If t> tc is not satisfied (step S111), the process returns to step S110 to continue the integration.

【0059】一方、ステップS111にて、t>tcの
場合には積分を終了し、ステップS113へ移行する
(ステップS111、112)。上記ステップS108
では、信号が信頼性が低い場合(積分時間が予定以上に
長い:眼が存在しない、積分終了が予定以上に短い:眼
以外の強い反射がある)であり信号をリセットしてステ
ップS113へ移行する(ステップS108)。
On the other hand, if t> tc in step S111, the integration is terminated and the process proceeds to step S113 (steps S111 and 112). Step S108
Then, if the signal is not reliable (the integration time is longer than expected: the eye does not exist, the integration end is shorter than expected: there is strong reflection other than the eye), the signal is reset, and the process proceeds to step S113. (Step S108).

【0060】尚、それぞれの積分の時間を判定して所定
時間内に積分時間が入っていない場合は信頼性が低いと
判定してデータを無効にしてもよい。次に図21のフロ
ーチャートにはプリンタ側のシーケンスを示し説明す
る。
If the integration time is judged and the integration time is not within the predetermined time, it may be judged that the reliability is low and the data may be invalidated. The sequence on the printer side is shown in the flowchart of FIG. 21 and will be described.

【0061】プリンタシーケンスを開始するとPCPU
31はデータをイニシャライズし(ステップS20
1)、磁気読み取り回路32が磁気にて記録された情報
を読み込む(ステップS202)。そして、フィルムス
キャナ33が画像情報を読み込み、画像メモリ34に格
納し(ステップS203)、表示回路35に該情報に基
づいて情報と画像の表示を行う(ステップS204)。
さらに、PCPU31は画像の変換を行い(ステップS
205)、変換された画像を表示する(ステップS20
6)。そして、画像の確認を行い(ステップS20
8)、NGの場合にはパラメータの変更を行ってステッ
プS204へ戻り(ステップS207)、OKの場合に
は変換画像の出力を行い(ステップS209)、本シー
ケンスを抜ける(ステップS210)。
When the printer sequence starts, the PCPU
31 initializes the data (step S20
1), the magnetic reading circuit 32 reads the magnetically recorded information (step S202). Then, the film scanner 33 reads the image information, stores it in the image memory 34 (step S203), and displays the information and the image on the display circuit 35 based on the information (step S204).
Further, the PCPU 31 performs image conversion (step S
205) and display the converted image (step S20)
6). Then, the image is confirmed (step S20
8) If the result is NG, the parameter is changed and the process returns to step S204 (step S207). If the result is OK, the converted image is output (step S209), and the present sequence is exited (step S210).

【0062】次に図22及び図23のフローチャートを
参照して、上記サブルーチン“画像変換”のシーケンス
を説明する。画像変換を開始すると、主要被写体位置の
画像ブロックの平均出力値(出力値の大きい方からK
0,K1,K2とする)と画面全体の平均出力値(K
a)を検出する(ステップS301)。次いで、主要被
写体の位置での瞳孔の平均値(大きい方からP0,P
1,P2とする)を検出し(ステップS302)、全体
の瞳孔径の平均値(Pa)を検出する(ステップS30
3)。
Next, the sequence of the subroutine "image conversion" will be described with reference to the flowcharts of FIGS. When the image conversion is started, the average output value of the image block at the main subject position (from the larger output value to K
0, K1, K2) and the average output value (K
a) is detected (step S301). Then, the average value of the pupils at the position of the main subject (P0, P
1, P2) is detected (step S302), and the average value (Pa) of the entire pupil diameter is detected (step S30).
3).

【0063】続いて、主要被写体位置の出力差を検出し
(ステップS304)、K0−K2<Kd(Kdは所定
の値)でない場合(主要被写間の明暗が大きい)には、
ステップS313へ移行する。
Subsequently, the output difference of the main subject position is detected (step S304), and if K0-K2 <Kd (Kd is a predetermined value) is not satisfied (the brightness between the main subjects is large),
The process moves to step S313.

【0064】これに対して、K0−K2<Kdの場合に
は瞳孔径の変化を検出し(ステップS305)、P0−
P2<Pd(Pdは所定値)でない場合には、暗い部分
と明るい部分のレンジを広げる変換(図24(a)の
(4)参照)を行う(ステップS311)。このステッ
プS305にて、P0−P2<Pdの場合には瞳孔の平
均的大きさPaとの比較を行う(ステップS306,ス
テップS307)。
On the other hand, when K0-K2 <Kd, the change in the pupil diameter is detected (step S305), and P0-
If P2 <Pd (Pd is a predetermined value) is not satisfied, conversion for expanding the range of the dark portion and the bright portion (see (4) in FIG. 24A) is performed (step S311). In this step S305, when P0-P2 <Pd, it is compared with the average size Pa of the pupil (steps S306 and S307).

【0065】そして、P0−Pa≧Pv(Pvは所定
値)の場合には、第1の主要被写体のブロックの平均出
力値が変換出力レンジの中心よりやや下に来るように変
換(図24(a)の(3)参照)する(ステップS31
0)。さらに、−Pv>P0−Pa>Pvの場合には、
第1の主要被写体のブロックの平均出力値が変換出力レ
ンジの中心に来るように変換(図24(a)の(1)参
照)する(ステップS308)。また、−Pv≦P0−
Paの場合には第1の主要被写体のブロックの平均出力
値が変換出力レンジの中心よりやや上にくるように変換
(図24(a)の(2)参照)する(ステップS30
9)。
If P0-Pa≥Pv (Pv is a predetermined value), the conversion is performed so that the average output value of the block of the first main subject is slightly below the center of the conversion output range (Fig. 24 ( Refer to (3) of a) (step S31).
0). Furthermore, in the case of -Pv>P0-Pa> Pv,
The conversion is performed so that the average output value of the block of the first main subject comes to the center of the conversion output range (see (1) in FIG. 24A) (step S308). Also, −Pv ≦ P0−
In the case of Pa, conversion is performed so that the average output value of the block of the first main subject is slightly above the center of the conversion output range (see (2) in FIG. 24A) (step S30).
9).

【0066】一方、上記ステップS304よりステップ
S313に移行すると、瞳孔径の変化を検出する。そし
て、P0−P2<Pd(Pdは所定値)でない場合には
P0のブロックを変換出力レンジ内に入れかつ暗い部分
と明るい部分のレンジを広げる変換(図24(b)の
(8)参照)を行う(ステップS319)。さらに、P
0−P2<Pdの場合には、瞳孔の平均的大きさPaと
の比較を行う(ステップS314,ステップS31
5)。そして、P0−Pa≧Pv(Pvは所定値)の場
合にはK0のブロックを変換出力レンジ内に入れ、且つ
明るい部分のレンジを広げる変換(図24(b)の
(7)参照)を行う(ステップS318)。さらに、−
Pv>P0−Pa>Pvの場合にはK0のブロックを変
換出力レンジに入る変換(図24(b)の(5)参照)
を行う(ステップS316)。また、−Pv≦P0−P
aの場合にはK0のブロックを変換出力レンジ内に入れ
且つ暗い部分のレンジを広げる変換(図24(b)の
(6)参照)を行う(ステップS317)。こうしてリ
ターンする(ステップS312)。
On the other hand, when the flow shifts from step S304 to step S313, a change in pupil diameter is detected. Then, when P0-P2 <Pd (Pd is a predetermined value) is not satisfied, the block of P0 is put in the conversion output range and the range of the dark part and the bright part is widened (see (8) in FIG. 24B). Is performed (step S319). Furthermore, P
If 0-P2 <Pd, the average size Pa of the pupil is compared (steps S314 and S31).
5). Then, in the case of P0-Pa ≧ Pv (Pv is a predetermined value), the block of K0 is put in the conversion output range, and conversion is performed to widen the range of the bright portion (see (7) in FIG. 24B). (Step S318). Furthermore, −
When Pv>P0-Pa> Pv, the block of K0 is converted into the conversion output range (see (5) in FIG. 24B).
Is performed (step S316). Also, −Pv ≦ P0−P
In the case of a, the K0 block is put in the conversion output range and the conversion for expanding the range of the dark portion is performed (see (6) in FIG. 24B) (step S317). Thus, the process returns (step S312).

【0067】尚、図24は変換曲線を示し、括弧内の番
号は図22,23内の変換方式の番号に対応する。そし
て、変換は入力出力をテーブルにて変換出力にしてもよ
い。また、変換出力レンジは出力媒体にて決定される。
FIG. 24 shows a conversion curve, and the numbers in parentheses correspond to the conversion system numbers in FIGS. Then, in the conversion, the input output may be converted into a conversion output in a table. The conversion output range is determined by the output medium.

【0068】以上、本発明の実施例について説明した
が、本発明はこれに限定されることなく種々の改良、変
更が可能であることは勿論である。例えば、視線検出方
式はエリアセンサを用いて1画面よりプルキンエ像位置
と瞳孔エッジを抽出する方式を用いてもよく、またPS
Dセンサを用いて時分割にて瞳孔重心とプルキンエ像を
抽出する方式を用いてもよく、PSDの場合は瞳孔の大
きさを差分後の光量にて推定する。また、信頼性判定を
まばたき、目の動きにて行っているが、カメラと顔の接
触(カメラファインダに眼を押し付けている)の判定や
眼がね判定を組み合わせるとさらによい。さらに、視線
検出はAF,AE等のカメラのシーケンスと平行に行わ
れてもよい。
Although the embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to these and various improvements and modifications can be made. For example, the line-of-sight detection method may use a method of extracting the Purkinje image position and the pupil edge from one screen using an area sensor.
A method of extracting a pupil center of gravity and a Purkinje image by time division using a D sensor may be used, and in the case of PSD, the size of the pupil is estimated by the light amount after the difference. Further, although the reliability determination is performed by blinking and moving the eyes, it is more preferable to combine the determination of contact between the camera and the face (when the eye is pressed against the camera finder) and the determination of the eye glasses. Further, the line-of-sight detection may be performed in parallel with the sequence of cameras such as AF and AE.

【0069】そして、主要被写体の抽出においても、視
線が連続して滞在した時間の長いブロック(視線位置)
から選択を行ってもよい。即ち、図25のフローチャー
トに示すように、イニシャライズを行った後(ステップ
S401)、変数iをインクリメントし(ステップS4
02)、前述のサブルーチン“視線検出”のシーケンス
を実行し、E(i−1)=E(i)でない場合において
(ステップS404)、MAX1<E(i−1)である
場合には、MAX1にJ(E(i−1))をストアし
(ステップS410)、MAXE1にE(i−1)をス
トアし(ステップS411)、ステップS412に移行
する。
Also, in the extraction of the main subject, a block in which the line of sight stays for a long time (line of sight position)
You may select from. That is, as shown in the flowchart of FIG. 25, after initialization (step S401), the variable i is incremented (step S4).
02), the sequence of the above-mentioned subroutine "line-of-sight detection" is executed, and if E (i-1) = E (i) is not satisfied (step S404), if MAX1 <E (i-1), then MAX1 J (E (i-1)) is stored in (step S410), E (i-1) is stored in MAXE1 (step S411), and the process proceeds to step S412.

【0070】そして、上記ステップS409にて、MA
X1<E(i−1)でない場合において、MAX2<E
(i−1)である場合には(ステップS414)、MA
X2にj(E(i−1))をストアし(ステップS41
5)、MAXE2にE(i−1)をストアし(ステップ
S416)、ステップS412に移行する。
Then, in step S409, the MA
MAX2 <E when X1 <E (i-1) is not satisfied
If (i-1) (step S414), MA
Store j (E (i-1)) in X2 (step S41)
5), E (i-1) is stored in MAXE2 (step S416), and the process proceeds to step S412.

【0071】さらに、ステップS414において、MA
X2<E(i−1)でない場合において、MAX3<E
(i−1)である場合には、MAX3にj(E(i−
1))をストアし(ステップS415)、MAXE3に
E(i−1)をストアし(ステップS416)、ステッ
プS412に移行する。上記ステップS417にて、M
AX3<E(i−1)でない場合には、ステップS41
2に移行する。
Further, in step S414, MA
If not X2 <E (i-1), MAX3 <E
In the case of (i-1), MAX3 has j (E (i-
1)) is stored (step S415), E (i-1) is stored in MAXE3 (step S416), and the process proceeds to step S412. In step S417, M
If not AX3 <E (i-1), step S41
Move to 2.

【0072】ステップS412では、J(E(i−
1))を0とし、J(E(i))=J(E(i))+1
とした後(ステップS405)、1stレリーズスイッ
チがOFFの場合にはシーケンスを終了する(ステップ
S413)。そして、1stレリーズスイッチ及び2n
dレリーズスイッチがオンされている場合にはリターン
する(ステップS408)。
In step S412, J (E (i-
1)) is 0, and J (E (i)) = J (E (i)) + 1
After that (step S405), if the first release switch is OFF, the sequence ends (step S413). And 1st release switch and 2n
If the d-release switch is turned on, the process returns (step S408).

【0073】一方、1stレリーズ時の視線ブロック
(視線位置)と2ndレリーズ時のブロック(視線位
置)の一方又は両方の重みを付けて(一層、主要被写体
に関係が深い場合が多い:回数または時間を大きくす
る)評価を行ってもよい。さらに、AF方式においても
エリアセンサを用いたパッシブタイプの2次元の広視野
AFを用いてもよく、更に数の少ない離散的なマルチA
Fを用いてもよい。また、画像変換方式は視線情報と瞳
孔の大きさ情報を用いるものであれば他の方式でも当然
よい。
On the other hand, one or both of the line-of-sight block (line-of-sight position) at the 1st release and the block (line-of-sight position) at the 2nd release are weighted (in many cases, they are more closely related to the main subject: number of times or time). May be evaluated). Further, in the AF method as well, a passive type two-dimensional wide-field AF using an area sensor may be used, and the number of discrete multi A
F may be used. Further, the image conversion method may of course be another method as long as it uses the line-of-sight information and the pupil size information.

【0074】さらに、サブルーチン“画像変換”におい
て、図26に示すように瞳孔の変化量にて通常の変換に
差をもたせるとよい(図27に変換特性の一例を示
す)。即ち、図26のフローチャートに示されるよう
に、主要被写体瞳孔径検出(P0,P1,P2,Pa)
を行い(ステップS501)、P0−P2<Pdである
場合にはそのまま、P0−P2<Pdでない場合には図
27に示される如く通常特性を破線で示される変更特性
に変換した後、リターンする(ステップS502〜S5
04)。
Further, in the subroutine "image conversion", it is preferable to make a difference in the normal conversion depending on the amount of change of the pupil as shown in FIG. 26 (FIG. 27 shows an example of conversion characteristics). That is, as shown in the flowchart of FIG. 26, main subject pupil diameter detection (P0, P1, P2, Pa)
(Step S501), if P0-P2 <Pd, the normal characteristic is converted into the changed characteristic shown by the broken line as shown in FIG. 27 if P0-P2 <Pd is not satisfied, and then the process returns. (Steps S502 to S5
04).

【0075】また、瞳孔の絶対値により変換方式を変え
てもよい。さらに、視線からの主要被写体情報のみの場
合図28に示すように主要被写体情報と対応する各ブロ
ックの平均出力と画面の平均出力にて変換を行ってもよ
い(図29に変換特性の一例を示す)。
The conversion method may be changed according to the absolute value of the pupil. Further, in the case of only the main subject information from the line of sight, conversion may be performed by the average output of each block corresponding to the main subject information and the average output of the screen as shown in FIG. 28 (an example of conversion characteristics in FIG. 29). Shown).

【0076】即ち、図28のフローチャートに示される
ように、主要被写体ブロック出力検出(K0,K1,K
2)を行い、平均出力Kaを検出し、K0〜K2をM0
〜M2,Maに変換する(ステップS601〜S60
3)。そして、M0,M2とMmax,Mminの比較
を行い、該比較結果に基づいて図29に示される特性
(1)乃至(6)を選択する(ステップS605〜S6
15)。
That is, as shown in the flow chart of FIG. 28, main subject block output detection (K0, K1, K
2) is performed, the average output Ka is detected, and K0 to K2 are set to M0.
To M2, Ma (steps S601 to S60)
3). Then, M0 and M2 are compared with Mmax and Mmin, and the characteristics (1) to (6) shown in FIG. 29 are selected based on the comparison result (steps S605 to S6).
15).

【0077】この他、フィルムに情報記録は情報にヘッ
ダー信号を付けて内容を判定するとさらによい。例えば
(第一視線ブロックヘッダー信号)(ブロック位置)
(瞳孔平均径)(第二視線ブロックヘッダー信号)(ブ
ロック位置)(瞳孔平均径)(第三視線ブロックヘッダ
ー信号)(ブロック位置)(瞳孔平均径)(瞳孔径ヘッ
ダー)(瞳孔径1)(瞳孔径2)…(終了信号)の如く
である。
In addition to the above, in recording information on a film, it is more preferable to add a header signal to the information to judge the content. For example (first line-of-sight block header signal) (block position)
(Pupil average diameter) (Second line-of-sight block header signal) (Block position) (Pupil average diameter) (Third line-of-sight block header signal) (Block position) (Pupil average diameter) (Pupil diameter header) (Pupil diameter 1) ( Pupil diameter 2) ... (end signal).

【0078】以上詳述したように、本発明によれば、現
状のカメラ構成にて、視線情報より抽出された主要被写
体と瞳孔の大きさ情報(一方だけでもよい)より階調を
整えた画像を得ることができる。
As described in detail above, according to the present invention, an image in which the gradation is adjusted based on the main subject extracted from the line-of-sight information and the size information of the pupil (only one may be used) in the present camera configuration. Can be obtained.

【0079】尚、本発明の上記実施態様によれば以下の
ごとき構成が得られる。 (1)カメラにおいて、撮影者の眼の動きを検出する視
線検出装置と、検出した所定期間の目の位置情報より主
要被写体を選択する被写体検出装置と、フィルムに主要
被写体情報を記録するフィルム記録装置と、フィルムの
情報を基に階調変換をするプリント装置と、を具備する
ことを特徴とするカメラシステム。 (2)上記(1)にて、視線検出装置は瞳孔からの反射
光と角膜の反射光とより視線方向を検出する。 (3)上記(1)にて、視線検出装置は瞳孔からの反射
光より視線の動きを検出する。 (4)上記(1)にて、視線検出装置は角膜の反射光よ
り視線の動きを検出する。 (5)上記(1)にて、被写体検出装置は所定期間内で
検出回数の多い位置から主要被写体を検出する。 (6)上記(1)にて、被写体検出装置は所定期間内で
連続滞在時間が長い位置から主要被写体を検出する。 (7)上記(1)にて、被写体検出装置は所定期間にお
いて1つ以上の主要被写体を検出する。 (8)カメラにおいて、撮影者の眼の動きを検出する視
線検出装置と、検出した所定期間の眼の位置情報より主
要被写体を選択する被写体検出装置と、撮影者の眼の瞳
孔の大きさを検出する瞳孔検出装置と、フィルムに主要
被写体情報と瞳孔情報を記録するフィルム記録装置と、
を具備することを特徴とするカメラシステム。 (9)上記(8)にて、視線検出装置は瞳孔からの反射
光と角膜の反射光とより視線方向を検出する。 (10)上記(8)にて、視線検出装置は瞳孔からの反
射光より視線の動きを検出する。 (11)上記(8)にて、視線検出装置は角膜の反射光
より視線の動きを検出する。 (12)上記(8)にて、被写体検出装置は所定期間内
で検出回数の多い位置から主要被写体を検出する。 (13)上記(8)にて、被写体検出装置は所定期間内
で連続滞在時間が長い位置から主要被写体を検出する。 (14)上記(8)にて、被写体検出装置は所定期間に
おいて1つ以上の主要被写体を検出する。 (15)上記(8)にて、瞳孔検出装置は視線検出装置
にて検出された信号を用いて行うことを特徴とする。 (16)上記(8)にて、瞳孔検出装置が検出する瞳孔
の大きさは赤目の大きさにて決定することを特徴とす
る。 (17)カメラにおいて、撮影者の眼の動きを検出する
視線検出装置と、検出した所定期間の眼の位置情報より
主要被写体を選択する被写体検出装置と、撮影者の眼の
瞳孔の大きさを検出する瞳孔検出装置と、フィルムに瞳
孔情報を記録するフィルム記録装置と、フィルムの情報
を基に階調変換をするプリント装置と、を具備すること
を特徴とするカメラシステム。 (18)上記(17)にて、視線検出装置は瞳孔からの
反射光と角膜の反射光より視線方向を検出する。 (19)上記(17)にて、視線検出装置は瞳孔からの
反射光より視線の動きを検出する。 (20)上記(17)にて、視線検出装置は角膜の反射
光より視線の動きを検出する。 (21)上記(17)にて、被写体検出装置は所定期間
内で検出回数の多い位置から主要被写体を検出する。 (22)上記(17)にて、被写体検出装置は所定期間
内で連続滞在時間が長い位置から主要被写体を検出す
る。 (23)上記(17)にて、被写体検出装置は所定期間
において1つ以上の主要被写体を検出する。 (24)上記(17)にて、瞳孔検出装置は視線検出装
置にて検出された信号を用いて行うことを特徴とする。 (25)上記(17)にて、瞳孔検出装置が検出する瞳
孔の大きさは赤目の大きさにて決定することを特徴とす
る。 (26)プリント装置において、フィルム(現像処理さ
れたもの)の映像を読み取る画像読み取り装置と、フィ
ルムに記録された主要被写体情報または瞳孔の大きさ情
報の一方又は両方を読み取る情報読み取り装置と、上記
情報読み取り装置の情報を基に画像の階調変換を行う画
像変換装置と、を具備することを特徴とするカメラシス
テム。 (27)上記(26)にて、カメラにて記録される情報
は少なくとも主要被写体の存在位置または撮影者の瞳孔
の大きさ情報の一方または両方を含んでいる。 (28)上記(26)にて、画像変換装置は変換された
画像の確認ができることを特徴とする。 (29)上記(26)にて、画像変換装置は特性をテー
ブルにて変換することを特徴とする。 (30)上記(26)にて、画像変換装置は特性を所定
の関数にて変換することを特徴とする。 (31)撮影者の眼の動きを検出する視線検出装置と、
検出した所定期間の眼の位置情報より主要被写体を選択
する被写体検出装置と、撮影者の眼の瞳孔の大きさを検
出する瞳孔検出装置と、画面の距離情報を複数検出する
マルチ測距装置と、フィルムに主要被写体情報と瞳孔情
報を記録するフィルム記録装置と、にて構成されたカメ
ラと、フィルム(現像処理されたもの)の映像を読み取
る画像読み取り装置と、フィルムに記録された主要被写
体情報または瞳孔の大きさ情報の一方または両方を読み
取る情報読み取り装置と、上記情報読み取り装置の情報
を基に画像の階調変換を行う画像変換装置と、にて構成
されたプリント装置と、を具備することを特徴とするカ
メラシステム。 (32)上記(31)にて、視線検出装置は瞳孔からの
反射光と角膜の反射光とより視線方向を検出する。 (33)上記(31)にて、視線検出装置は瞳孔からの
反射光より視線の動きを検出する。 (34)上記(31)にて、視線検出装置は角膜の反射
光より視線の動きを検出する。 (35)上記(31)にて、被写体検出装置は所定期間
内で検出回数の多い位置から主要被写体を検出する。 (36)上記(31)にて、被写体検出装置は所定期間
内で連続滞在時間が長い位置から主要被写体を検出す
る。 (37)上記(31)にて、被写体検出装置は所定期間
において1つ以上の主要被写体を検出する。 (38)上記(31)にて、瞳孔検出装置は視線検出装
置にて検出された信号を用いて行うことを特徴とする。 (39)上記(31)にて、瞳孔検出装置が検出する瞳
孔の大きさは赤目の大きさにて決定することを特徴とす
る。 (40)上記(31)にて、カメラにて記録される情報
は少なくとも主要被写体の存在位置または撮影者の瞳孔
の大きさ情報の一方または両方を含んでいる。 (41)上記(31)にて、画像変換装置は変換された
画像の確認ができることを特徴とする。 (42)上記(31)にて、画像変換装置は特性をテー
ブルにて変換することを特徴とする。 (43)上記(31)にて、画像変換装置は特性を所定
の関数にて変換することを特徴とする。
According to the above embodiment of the present invention, the following constitution can be obtained. (1) In a camera, a line-of-sight detection device that detects a movement of a photographer's eyes, a subject detection device that selects a main subject based on eye position information of a detected predetermined period, and a film recording that records the main subject information on a film A camera system comprising: a device and a printing device that performs gradation conversion based on film information. (2) In the above (1), the visual line detection device detects the visual line direction from the reflected light from the pupil and the reflected light from the cornea. (3) In the above (1), the visual line detection device detects the movement of the visual line from the reflected light from the pupil. (4) In the above (1), the line-of-sight detection device detects the line-of-sight movement from the reflected light of the cornea. (5) In (1) above, the subject detection device detects the main subject from a position where the number of times of detection is large within a predetermined period. (6) In (1) above, the subject detection device detects the main subject from a position where the continuous stay time is long within a predetermined period. (7) In (1) above, the subject detection device detects one or more main subjects in a predetermined period. (8) In the camera, the line-of-sight detection device that detects the movement of the photographer's eye, the subject detection device that selects the main subject from the detected eye position information for the predetermined period, and the size of the pupil of the photographer's eye are set. A pupil detection device for detecting, a film recording device for recording main subject information and pupil information on a film,
A camera system comprising: (9) In (8) above, the visual line detection device detects the visual line direction from the reflected light from the pupil and the reflected light from the cornea. (10) In (8) above, the visual line detection device detects the movement of the visual line from the reflected light from the pupil. (11) In (8) above, the line-of-sight detection device detects the movement of the line of sight from the reflected light of the cornea. (12) In (8) above, the subject detection device detects the main subject from a position having a large number of detections within a predetermined period. (13) In (8) above, the subject detection device detects the main subject from a position where the continuous stay time is long within a predetermined period. (14) In (8) above, the subject detection device detects one or more main subjects in a predetermined period. (15) In (8) above, the pupil detection device is characterized in that the pupil detection device uses the signal detected by the line-of-sight detection device. (16) In (8) above, the size of the pupil detected by the pupil detection device is determined by the size of the red eye. (17) In a camera, a line-of-sight detection device that detects movement of a photographer's eye, a subject detection device that selects a main subject from eye position information of a detected predetermined period, and a size of a pupil of the photographer's eye are set. A camera system comprising: a pupil detection device for detecting, a film recording device for recording pupil information on a film, and a printing device for gradation conversion based on film information. (18) In (17) above, the visual line detection device detects the visual line direction from the reflected light from the pupil and the reflected light from the cornea. (19) In (17) above, the visual line detection device detects the movement of the visual line from the reflected light from the pupil. (20) In (17) above, the line-of-sight detection device detects the movement of the line of sight from the reflected light of the cornea. (21) In (17) above, the subject detection device detects the main subject from a position having a large number of detections within a predetermined period. (22) In (17) above, the subject detection device detects the main subject from a position where the continuous stay time is long within a predetermined period. (23) In (17) above, the subject detection device detects one or more main subjects in a predetermined period. (24) In (17) above, the pupil detection device is characterized in that the pupil detection device uses the signal detected by the line-of-sight detection device. (25) In (17) above, the size of the pupil detected by the pupil detection device is determined by the size of the red eye. (26) In a printing apparatus, an image reading device that reads a video image of a film (developed), an information reading device that reads one or both of main subject information and pupil size information recorded on the film, An image conversion device that performs gradation conversion of an image based on information from an information reading device. (27) In the above (26), the information recorded by the camera includes at least one of the existence position of the main subject and the size information of the pupil of the photographer, or both. (28) In the above (26), the image conversion device is capable of confirming the converted image. (29) In the above (26), the image conversion device is characterized in that the characteristics are converted in a table. (30) In the above (26), the image conversion device is characterized in that the characteristics are converted by a predetermined function. (31) A line-of-sight detection device that detects the movement of the photographer's eyes,
A subject detection device that selects a main subject from the detected eye position information for a predetermined period, a pupil detection device that detects the size of the pupil of the photographer's eye, and a multi-distance measuring device that detects a plurality of screen distance information. , A film recording device for recording the main subject information and pupil information on the film, an image reading device for reading the image of the film (developed), and the main subject information recorded on the film Alternatively, a printing device including an information reading device that reads one or both of pupil size information and an image converting device that performs gradation conversion of an image based on the information of the information reading device is provided. A camera system characterized by the above. (32) In (31) above, the visual line detection device detects the visual line direction from the reflected light from the pupil and the reflected light from the cornea. (33) In (31) above, the visual line detection device detects the movement of the visual line from the reflected light from the pupil. (34) In (31) above, the visual line detection device detects the movement of the visual line from the reflected light of the cornea. (35) In (31) above, the subject detection device detects the main subject from a position having a large number of detections within a predetermined period. (36) In (31) above, the subject detection device detects the main subject from a position where the continuous stay time is long within a predetermined period. (37) In (31) above, the subject detection device detects one or more main subjects in a predetermined period. (38) In (31) above, the pupil detection device is characterized in that the detection is performed using the signal detected by the line-of-sight detection device. (39) In (31) above, the size of the pupil detected by the pupil detection device is determined by the size of the red eye. (40) In (31), the information recorded by the camera includes at least one of the existence position of the main subject and the size information of the pupil of the photographer, or both. (41) In the above (31), the image conversion device is capable of confirming the converted image. (42) In the above (31), the image conversion device is characterized in that the characteristics are converted in a table. (43) In (31) above, the image conversion device is characterized in that the characteristics are converted by a predetermined function.

【0080】[0080]

【発明の効果】本発明によれば、撮影者の視線情報をフ
ィルムに記録し、該フィルムの情報を基に後処理にて最
適な画像を復元する視線検出カメラ及びプリント装置を
提供することができる。
According to the present invention, it is possible to provide a line-of-sight detection camera and a printing apparatus which record the line-of-sight information of a photographer on a film and restore an optimum image by post-processing based on the information of the film. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例に係る視線検出カメラ及
びプリンタ装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a line-of-sight detection camera and a printer device according to a first embodiment of the present invention.

【図2】略光軸より投光された光束の眼からの反射光の
受光出力を示す図である。
FIG. 2 is a diagram showing a light reception output of reflected light from an eye of a light beam projected from a substantially optical axis.

【図3】眼球の回転による検出像の変化の様子を示す図
である。
FIG. 3 is a diagram showing how a detected image changes due to rotation of an eyeball.

【図4】眼球中心が固定されるような場合の回転と角膜
反射95aと眼底反射95bの様子を示す図である。
FIG. 4 is a diagram showing rotation and corneal reflection 95a and fundus reflection 95b when the center of the eyeball is fixed.

【図5】眼球がシフトと角膜反射95aと眼底反射95
bの様子を示す図である。
FIG. 5: Eye shift and corneal reflex 95a and fundus reflex 95
It is a figure which shows the mode of b.

【図6】第1の実施例の視線検出カメラ側の動作を示す
フローチャートである。
FIG. 6 is a flowchart showing an operation on the side of the line-of-sight detection camera of the first embodiment.

【図7】第1の実施例のプリンタ側の動作を示すフロー
チャートである。
FIG. 7 is a flowchart showing an operation on the printer side of the first embodiment.

【図8】第1の実施例を更に具現化した第2の実施例に
係る視線検出カメラ及びプリンタ装置の構成を示す図で
ある。
FIG. 8 is a diagram showing configurations of a line-of-sight detection camera and a printer device according to a second embodiment, which is a further implementation of the first embodiment.

【図9】視線検出光学系の詳細な構成を示す図である。FIG. 9 is a diagram showing a detailed configuration of a line-of-sight detection optical system.

【図10】図9(b),(c)におけるラインセンサ上
の信号を示す図である。
FIG. 10 is a diagram showing signals on the line sensor in FIGS. 9B and 9C.

【図11】第2の実施例の視線検出カメラ側の動作を示
すフローチャートである。
FIG. 11 is a flowchart showing an operation on the side of the line-of-sight detection camera of the second embodiment.

【図12】サブルーチン“視線検出1”のシーケンスを
示すフローチャートである。
FIG. 12 is a flowchart showing a sequence of a subroutine “visual axis detection 1”.

【図13】サブルーチン“視線検出2”のシーケンスを
示すフローチャートである。
FIG. 13 is a flowchart showing a sequence of a subroutine “visual axis detection 2”.

【図14】サブルーチン“視線検出”のシーケンスを示
すフローチャートである。
FIG. 14 is a flowchart showing a sequence of a subroutine “visual axis detection”.

【図15】サブルーチン“信号処理”のシーケンスを示
すフローチャートである。
FIG. 15 is a flowchart showing a sequence of a subroutine “signal processing”.

【図16】サブルーチン“瞳孔径検出”のシーケンスを
示すフローチャートである。
FIG. 16 is a flowchart showing a sequence of a subroutine “pupil diameter detection”.

【図17】サブルーチン“情報記録”のシーケンスを示
すフローチャートである。
FIG. 17 is a flowchart showing the sequence of a subroutine “information recording”.

【図18】ラインセンサの構成を示す図である。FIG. 18 is a diagram showing a configuration of a line sensor.

【図19】積分時間制御のシーケンスを示すフローチャ
ートである。
FIG. 19 is a flowchart showing a sequence of integration time control.

【図20】サブルーチン“測距”のシーケンスを示すフ
ローチャートである。
FIG. 20 is a flowchart showing a sequence of a subroutine “distance measurement”.

【図21】第2の実施例のプリンタ側の動作を示すフロ
ーチャートである。
FIG. 21 is a flowchart showing an operation on the printer side of the second embodiment.

【図22】サブルーチン“画像変換”のシーケンスを示
すフローチャートである。
FIG. 22 is a flowchart showing a sequence of a subroutine “image conversion”.

【図23】サブルーチン“画像変換”のシーケンスを示
すフローチャートである。
FIG. 23 is a flowchart showing a sequence of a subroutine “image conversion”.

【図24】第2の実施例に係る変換曲線を示す図であ
る。
FIG. 24 is a diagram showing a conversion curve according to the second embodiment.

【図25】改良例に係るサブルーチン“視線検出”のシ
ーケンスを示すフローチャートである。
FIG. 25 is a flowchart showing a sequence of a subroutine “visual axis detection” according to an improved example.

【図26】改良例に係るサブルーチン“画像変換”のシ
ーケンスを示すフローチャートである。
FIG. 26 is a flowchart showing a sequence of a subroutine “image conversion” according to an improved example.

【図27】図26に対応する変換特性の様子を示す図で
ある。
FIG. 27 is a diagram showing a state of conversion characteristics corresponding to FIG. 26.

【図28】改良例に係るサブルーチン“画像変換”のシ
ーケンスを示すフローチャートである。
FIG. 28 is a flowchart showing a sequence of a subroutine “image conversion” according to an improved example.

【図29】図28に対応する変換特性の様子を示す図で
ある。
FIG. 29 is a diagram showing a state of conversion characteristics corresponding to FIG. 28.

【符号の説明】[Explanation of symbols]

1…視線検出部、2…瞳孔径検出部、3…被写体検出
部、4…フィルム記録部、5…画像読み取り部、6…情
報読み取り部、7…画像変換部、8…表示部、9…出力
部。
DESCRIPTION OF SYMBOLS 1 ... Gaze detection part, 2 ... Pupil diameter detection part, 3 ... Subject detection part, 4 ... Film recording part, 5 ... Image reading part, 6 ... Information reading part, 7 ... Image conversion part, 8 ... Display part, 9 ... Output section.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 撮影者の眼の動きを検出する視線検出手
段と、 この視線検出手段によって検出された上記撮影者の眼の
位置情報に基づいて繰り返し主要被写体を検出する主要
被写体検出手段と、 この主要被写体検出手段によって検出された複数の主要
被写体の情報をフィルム上またはフィルムパトローネ上
の記憶媒体に記録する情報記録手段と、を具備すること
を特徴とする視線検出カメラ。
1. A line-of-sight detecting means for detecting movement of a photographer's eyes, and a main subject detecting means for repeatedly detecting a main subject based on position information of the photographer's eyes detected by the line-of-sight detecting means, A line-of-sight detection camera, comprising: information recording means for recording information of a plurality of main subjects detected by the main subject detection means on a storage medium on a film or a film cartridge.
【請求項2】 撮影者の瞳孔の大きさを検出する瞳孔検
出手段を更に具備し、上記情報記録手段は上記瞳孔検出
手段によって検出された瞳孔の大きさを上記記録媒体に
記録することを特徴とする請求項1に記載の視線検出カ
メラ。
2. A pupil detecting means for detecting the size of the pupil of the photographer is further provided, and the information recording means records the size of the pupil detected by the pupil detecting means on the recording medium. The line-of-sight detection camera according to claim 1.
【請求項3】 フィルム上またはフィルムパトローネ上
の記憶媒体に複数の主要被写体の情報が記録されている
フィルムからプリントするプリンタ装置において、 上記記憶媒体から上記複数の主要被写体情報を読み出す
情報読出手段と、 上記フィルム上に露光された被写体像をイメージ信号に
変換する画像読取手段と、 上記情報読出手段によって読み出された上記複数の主要
被写体情報に基づいて上記複数の主要被写体が適正にプ
リントされるように上記イメージ信号の階調を変換する
階調変換手段と、 この階調変換手段によって変換された上記イメージ信号
に基づいて上記被写体像をプリントするプリント手段
と、を具備したことを特徴とするプリンタ装置。
3. A printer device for printing from a film in which information of a plurality of main subjects is recorded on a storage medium on a film or a film cartridge, and information reading means for reading out the plurality of main subject information from the storage medium. Image reading means for converting the exposed subject image on the film into an image signal, and the plurality of main subjects are properly printed based on the plurality of main subject information read by the information reading means. As described above, it is provided with a gradation converting means for converting the gradation of the image signal, and a printing means for printing the subject image based on the image signal converted by the gradation converting means. Printer device.
JP10539294A 1994-05-19 1994-05-19 Eye-gaze detection camera and printer Expired - Fee Related JP3414492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10539294A JP3414492B2 (en) 1994-05-19 1994-05-19 Eye-gaze detection camera and printer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10539294A JP3414492B2 (en) 1994-05-19 1994-05-19 Eye-gaze detection camera and printer

Publications (2)

Publication Number Publication Date
JPH07319037A true JPH07319037A (en) 1995-12-08
JP3414492B2 JP3414492B2 (en) 2003-06-09

Family

ID=14406376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10539294A Expired - Fee Related JP3414492B2 (en) 1994-05-19 1994-05-19 Eye-gaze detection camera and printer

Country Status (1)

Country Link
JP (1) JP3414492B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209163B1 (en) 1999-06-03 2007-04-24 Fujifilm Corporation Image processing apparatus, image output apparatus, and camera
WO2011105004A1 (en) * 2010-02-26 2011-09-01 パナソニック株式会社 Pupil detection device and pupil detection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209163B1 (en) 1999-06-03 2007-04-24 Fujifilm Corporation Image processing apparatus, image output apparatus, and camera
WO2011105004A1 (en) * 2010-02-26 2011-09-01 パナソニック株式会社 Pupil detection device and pupil detection method
CN102439627A (en) * 2010-02-26 2012-05-02 松下电器产业株式会社 Pupil detection device and pupil detection method
US8810642B2 (en) 2010-02-26 2014-08-19 Panasonic Intellectual Property Corporation Of America Pupil detection device and pupil detection method
JP5694161B2 (en) * 2010-02-26 2015-04-01 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Pupil detection device and pupil detection method

Also Published As

Publication number Publication date
JP3414492B2 (en) 2003-06-09

Similar Documents

Publication Publication Date Title
JP5157256B2 (en) Image tracking device and imaging device
JP2004206688A (en) Face recognition method, face image cutting out method, and imaging apparatus
JP4804210B2 (en) Imaging apparatus and control method thereof
JP4398017B2 (en) Ranging device
US5987151A (en) Apparatus for detecting visual axis
JP2001330769A (en) Image pickup device and its control method
JP2014202875A (en) Subject tracking device
KR100224538B1 (en) Viewpoint detecting device
JPH07151950A (en) Camera
JP5109864B2 (en) Electronic still camera
JP2001116979A (en) Automatic focusing camera and photographing method
JPS63194237A (en) Camera
JP4382911B2 (en) camera
JP2002214659A (en) Camera with shake correcting function
JPH07319037A (en) Visual-line detecting camera and printer device
JP3192483B2 (en) Optical equipment
JP6562693B2 (en) Control device, imaging device, control method, program, and storage medium
CN114650350A (en) Gaze detection apparatus, gaze detection method, and computer-readable storage medium
JP4865275B2 (en) Focus detection apparatus and imaging apparatus
JP2016114720A (en) Imaging apparatus and method of controlling the same
US20240085979A1 (en) Recording device, image-capturing apparatus, control method, and recording system
JP2005091432A (en) Camera
JP7358130B2 (en) Electronic equipment and its control method
US20220345611A1 (en) Image capturing apparatus and control method thereof and storage medium
JP2952072B2 (en) Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees