JP2022066266A - Subject recognition device - Google Patents

Subject recognition device Download PDF

Info

Publication number
JP2022066266A
JP2022066266A JP2022026118A JP2022026118A JP2022066266A JP 2022066266 A JP2022066266 A JP 2022066266A JP 2022026118 A JP2022026118 A JP 2022026118A JP 2022026118 A JP2022026118 A JP 2022026118A JP 2022066266 A JP2022066266 A JP 2022066266A
Authority
JP
Japan
Prior art keywords
line
sight
image
subject
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022026118A
Other languages
Japanese (ja)
Other versions
JP7358530B2 (en
Inventor
武志 内田
Takeshi Uchida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022026118A priority Critical patent/JP7358530B2/en
Publication of JP2022066266A publication Critical patent/JP2022066266A/en
Application granted granted Critical
Publication of JP7358530B2 publication Critical patent/JP7358530B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)
  • Viewfinders (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To automate a gaze position calibration operation and to improve convenience for a user while accurately recognizing a subject in a subject recognition device having a line-of-sight detection function.
SOLUTION: A subject recognition device includes: imaging means; display means; line-of-sight position detecting means of a photographer; optical flow calculation means; line-of-sight movement vector measuring means for measuring a movement amount and a movement direction in which the line-of-sight position of the photographer moves at predetermined time; movement vector coincidence degree determination means for comparing an optical flow with the line-of-sight movement vector and determining a degree of coincidence between the optical flow and the line-of-sight movement vector; and subject area determination means for extracting an image area having the optical flow and determining the area to be a subject area when the determination means determines that the two match. A detection result of the line-of-sight position is corrected by using position coordinates of the determined subject area.
SELECTED DRAWING: Figure 9
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、視線検出装置を有する被写体認識装置に関する。 The present invention relates to a subject recognition device having a line-of-sight detection device.

近年カメラの自動化・インテリジェント化が進み、特許文献1に示されるように、手動で被写体位置を入力せずとも、ファインダを覗く撮影者の視線位置の情報に基づいて撮影者が意図する被写体を認識し、焦点制御を行うことを可能とするカメラ制御装置が提案されている。 In recent years, the automation and intelligentization of cameras have progressed, and as shown in Patent Document 1, the photographer's intended subject is recognized based on the information of the photographer's line-of-sight position looking into the finder without manually inputting the subject position. However, a camera control device capable of performing focus control has been proposed.

また、カメラが上記のように撮影者の視線位置を検出する際に、撮影者の意図した視線位置とカメラが認識する撮影者の視線位置の間にズレが生じ、撮影者の意図する被写体に焦点を合わせることができない場合がある。 Further, when the camera detects the line-of-sight position of the photographer as described above, a deviation occurs between the line-of-sight position intended by the photographer and the line-of-sight position of the photographer recognized by the camera, and the subject intended by the photographer. It may not be possible to focus.

これに対し、上記特許文献1においては、撮影前にファインダ内に指標を表示し、ユーザーにその指標を注視するよう指示を出し、その注視状態において、ユーザーの視線位置を検出し、該指標位置とのずれ量を検出する作業を行う。その検出されたずれ量だけ、撮影時にカメラが認識する撮影者の視線検出位置を補正することで、よりユーザーの意図どおりの視線位置を検出することを可能とするキャリブレーション技術が記載されている。 On the other hand, in Patent Document 1, an index is displayed in the finder before shooting, an instruction is given to the user to gaze at the index, the line-of-sight position of the user is detected in the gaze state, and the index position is obtained. Work to detect the amount of deviation from. A calibration technique that makes it possible to detect the line-of-sight position as intended by the user by correcting the line-of-sight detection position of the photographer recognized by the camera at the time of shooting by the detected deviation amount is described. ..

また、特許文献2においては、車両運転時に、運転者の注視点位置の単位時間内の動きを検出し、その移動方向・移動量が運転席から見た外部の風景の移動方向・移動量に一定時間以上一致した場合に、前方を見ていないと判断する、脇見運転検出技術を示している。 Further, in Patent Document 2, when the vehicle is driven, the movement of the driver's gaze point position within a unit time is detected, and the movement direction / amount thereof is the movement direction / movement amount of the external landscape seen from the driver's seat. It shows an inattentive driving detection technique that determines that the vehicle is not looking ahead when it matches for a certain period of time or longer.

特開2004-8323号公報Japanese Unexamined Patent Publication No. 2004-8323 特開2010-39933号公報Japanese Unexamined Patent Publication No. 2010-39933

特許文献1においては、撮影者の意図する注視点位置とカメラが検出する注視点位置にずれがある場合に、キャリブレーションによってその補正を行っている。 In Patent Document 1, when there is a deviation between the gazing point position intended by the photographer and the gazing point position detected by the camera, the correction is performed by calibration.

しかし、明るさ等の周囲の環境や撮影者の体勢等が変わると、カメラが検出する注視点位置が変化するため、状況が変わるたびに頻繁にキャリブレーション作業を行わねばならず、煩雑となる問題がある。 However, if the surrounding environment such as brightness or the posture of the photographer changes, the gazing point position detected by the camera changes, so calibration work must be performed frequently every time the situation changes, which is complicated. There's a problem.

また、特許文献2においては、注視点の所定時間当たりの移動方向・量に注目し、使用者が前方を注視して運転している状態にあるか、それとも視線が前方から側方に流れる景色を追って動く脇見運転の状態であるかの判定をしている。 Further, in Patent Document 2, paying attention to the moving direction and amount of the gazing point per predetermined time, the user is in a state of gazing at the front and driving, or a view in which the line of sight flows from the front to the side. It is judged whether it is in the state of inattentive driving that moves following.

しかし、使用者の意図する注視点位置と、カメラが認識する使用者の注視点位置との間のずれの検出や、ずれを補正するキャリブレーション作業については言及されていない。そのため、前記注視点位置のずれは解消されないまま残り、使用者の意図する被写体をカメラが正確に認識できない問題がある。 However, there is no mention of detecting the deviation between the gaze point position intended by the user and the gaze point position of the user recognized by the camera, and the calibration work for correcting the deviation. Therefore, there is a problem that the deviation of the gazing point position remains unresolved and the camera cannot accurately recognize the subject intended by the user.

本発明は、上記課題に鑑みてなされたものであり、視線検出装置を有する被写体認識装置において、撮影者の注視する被写体を精度よく認識しつつ、かつ注視位置のキャリブレーション動作の自動化を図り、撮影者の利便性を向上することを目的とする。 The present invention has been made in view of the above problems, and in a subject recognition device having a line-of-sight detection device, the subject to be gazed by the photographer is accurately recognized, and the calibration operation of the gaze position is automated. The purpose is to improve the convenience of the photographer.

上記の目的を達成するために、本発明に係る被写体認識装置は、
撮像手段と、
撮像した画像を表示する表示手段と、
撮影者の視線位置を検出する視線位置検出手段と、
前記撮像手段により取得された画像に基づいて、オプティカルフローを算出する、オプティカルフロー算出手段と、
前記視線位置検出手段により測定された撮影者の視線位置が、所定の時間に移動する移動量及び移動方向を測定する視線移動ベクトル測定手段と、
前記オプティカルフロー算出手段により算出されたオプティカルフローと、前記視線移動ベクトル取得手段により取得された視線移動ベクトルとを比較し、両者の一致度合を判断する、移動ベクトル一致度合判定手段と、
該判定手段により、両者が所定の度合い一致する判定が出た場合に、該オプティカルフローを有する画像領域を抽出し、該領域が被写体領域であると特定する被写体領域特定手段と、
前記特定された被写体領域の位置座標を用いることで、前記視線位置の検出結果を修正する視線位置検出結果修正手段と、
を有することを特徴とする。
In order to achieve the above object, the subject recognition device according to the present invention is
Imaging means and
Display means for displaying captured images and
A line-of-sight position detecting means for detecting the line-of-sight position of the photographer,
An optical flow calculation means that calculates an optical flow based on an image acquired by the image pickup means, and an optical flow calculation means.
A line-of-sight movement vector measuring means for measuring a movement amount and a movement direction in which the photographer's line-of-sight position measured by the line-of-sight position detecting means moves at a predetermined time.
A movement vector matching degree determining means that compares the optical flow calculated by the optical flow calculating means with the line-of-sight movement vector acquired by the line-of-sight movement vector acquiring means and determines the degree of coincidence between the two.
When the determination means determines that the two match a predetermined degree, the image region having the optical flow is extracted, and the subject region specifying means for identifying the region as the subject region is used.
By using the position coordinates of the specified subject area, the line-of-sight position detection result correction means for correcting the line-of-sight position detection result, and the line-of-sight position detection result correction means.
It is characterized by having.

本発明によれば、視線検出装置を有する被写体認識装置において、撮影者の注視する被写体を精度よく認識しつつ、かつ注視位置のキャリブレーション動作の自動化を図り、撮影者の利便性を向上することができる。 According to the present invention, in a subject recognition device having a line-of-sight detection device, it is possible to accurately recognize the subject to be gazed by the photographer and to automate the calibration operation of the gaze position to improve the convenience of the photographer. Can be done.

本発明の第1実施形態が適用される撮像装置の構成概略図Schematic diagram of the configuration of the image pickup apparatus to which the first embodiment of the present invention is applied. 本発明の第1実施形態が適用される撮像装置のブロック図Block diagram of an image pickup apparatus to which the first embodiment of the present invention is applied. 本発明の第1実施形態におけるファインダ内視野を示す説明図Explanatory drawing which shows the field of view in the finder in 1st Embodiment of this invention 本発明の第1実施形態における視線検出方法の原理説明図Principle explanatory diagram of the line-of-sight detection method in the first embodiment of the present invention 眼球用撮像素子17に投影される眼球像の概略図Schematic diagram of the eyeball image projected on the image sensor 17 for the eyeball 視線検出の概略フロールーチンOutline flow routine for line-of-sight detection 被写体検出動作説明図Subject detection operation explanatory diagram オプティカルフロー取得手法説明図Optical flow acquisition method explanatory diagram 本発明の第1実施形態における撮影動作・自動キャリブレーション動作のフローFlow of shooting operation / automatic calibration operation in the first embodiment of the present invention

以下、添付の図面を参照して本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<構成の説明>
図1は本発明におけるデジタルスチルカメラの概略図である。
<Explanation of configuration>
FIG. 1 is a schematic view of a digital still camera according to the present invention.

1は撮影レンズで、本実施形態では便宜上1a、1bの二枚のレンズで示したが、実際はさらに多数のレンズで構成されていることは周知の通りである。2は撮像素子で、デジタルスチルカメラ1の撮影レンズ1の予定結像面に配置されている。デジタルスチルカメラ1には、カメラ全体を制御するCPU3、撮像素子2にて撮像された画像を記録するメモリ部4が内包される。また、撮像された画像を表示するための液晶等で構成される表示素子10と、それを駆動する表示素子駆動回路11、表示素子10に表示された被写体像を観察するための接眼レンズ12が配置されている。 Reference numeral 1 is a photographing lens, and in the present embodiment, two lenses 1a and 1b are shown for convenience, but it is well known that the lens is actually composed of a larger number of lenses. Reference numeral 2 is an image pickup device, which is arranged on the planned image plane of the photographing lens 1 of the digital still camera 1. The digital still camera 1 includes a CPU 3 that controls the entire camera and a memory unit 4 that records an image captured by the image sensor 2. Further, a display element 10 composed of a liquid crystal display or the like for displaying an captured image, a display element drive circuit 11 for driving the display element, and an eyepiece 12 for observing a subject image displayed on the display element 10 are provided. Have been placed.

13a~13bは、従来より一眼レフカメラ等に用いられている光源の角膜反射による反射象と瞳孔の関係から視線方向を検出するための撮影者の眼球14を照明するための光源で、赤外発光ダイオードからなり、接眼レンズ12の周りに配置されている。照明された眼球像と光源13a~13bの角膜反射による像は接眼レンズ12を透過し、光分割器15で反射され、受光レンズ16によってCCD棟の光電素子列を2次元的に配した眼球用撮像素子17上に結像される。受光レンズ16は撮影者の眼球14の瞳孔と眼球用撮像素子17を共役な結像関係に位置付けている。眼球用撮像素子17上に結像された眼球と光源13a~13bの角膜反射による像の位置関係から後述する所定のアルゴリズムで視線方向を検出する。 13a to 13b are light sources for illuminating the photographer's eyeball 14 for detecting the line-of-sight direction from the relationship between the reflected elephant and the pupil due to the corneal reflex of the light source conventionally used for single-lens reflex cameras and the like, and infrared rays. It consists of a light emitting diode and is arranged around the eyepiece 12. The illuminated eyeball image and the image due to the corneal reflex of the light sources 13a to 13b pass through the eyepiece lens 12, are reflected by the light divider 15, and are used for the eyeball in which the photoelectric element train of the CCD building is two-dimensionally arranged by the light receiving lens 16. An image is formed on the image pickup device 17. The light receiving lens 16 positions the pupil of the photographer's eyeball 14 and the image sensor 17 for the eyeball in a conjugate imaging relationship. The line-of-sight direction is detected by a predetermined algorithm described later from the positional relationship between the eyeball formed on the image sensor 17 for the eyeball and the image due to the corneal reflection of the light sources 13a to 13b.

111は撮影レンズ1内に設けた絞り、112は絞り駆動装置、113はレンズ駆動用モーター、114は駆動ギヤ等からなるレンズ駆動部材、115はフォトカプラーでレンズ駆動部材114に連動するパルス板116の回転を検知して、レンズ焦点調節回路118に伝えている。焦点調節回路118は、この情報とカメラ側からのレンズ駆動量の情報にもとづいてレンズ駆動用モーター113を所定量駆動させ、撮影レンズ1aを合焦点位置に移動させるようになっている。117は公知のカメラとレンズとのインターフェイスとなるマウント接点である。 111 is a diaphragm provided in the photographing lens 1, 112 is a diaphragm drive device, 113 is a lens drive motor, 114 is a lens drive member including a drive gear, and 115 is a photocoupler, which is a pulse plate 116 linked to the lens drive member 114. The rotation of the lens is detected and transmitted to the lens focus adjustment circuit 118. The focus adjustment circuit 118 drives the lens drive motor 113 by a predetermined amount based on this information and the information on the lens drive amount from the camera side, and moves the photographing lens 1a to the in-focus position. Reference numeral 117 is a mount contact that serves as an interface between a known camera and a lens.

図2は前期構成のデジタルスチルカメラに内蔵された電気的構成を示すブロック図であり、図1と同一のものは同一番号をつけている。 FIG. 2 is a block diagram showing an electrical configuration built into the digital still camera of the previous term configuration, and the same ones as those in FIG. 1 are numbered the same.

カメラ本体に内蔵されたマイクロコンピュータの中央処理装置3(以下、CPU3と呼ぶ)には視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示素子駆動回路11、照明光源駆動回路205が接続されている。また、撮影レンズ内に配置された焦点調節回路118、前述の絞り駆動装置112に含まれる絞り制御回路206とは図1で示したマウント接点117を介して信号の伝達がなされる。CPU3に付随したメモリ部4は、撮像素子2および眼球用撮像素子17からの撮像信号の記憶機能及び、後述する視線の個人差を補正する視線補正データの記憶機能を有している。 The central processing unit 3 (hereinafter referred to as CPU 3) of the microcomputer built in the camera body includes a line-of-sight detection circuit 201, a photometric circuit 202, an automatic focus detection circuit 203, a signal input circuit 204, a display element drive circuit 11, and an illumination light source. The drive circuit 205 is connected. Further, a signal is transmitted to the focus adjustment circuit 118 arranged in the photographing lens and the aperture control circuit 206 included in the above-mentioned aperture drive device 112 via the mount contact 117 shown in FIG. The memory unit 4 attached to the CPU 3 has a function of storing an image pickup signal from the image pickup element 2 and the image pickup element 17 for an eyeball, and a function of storing line-of-sight correction data for correcting individual differences in the line of sight, which will be described later.

視線検出回路201は、眼球用撮像素子17(CCD-EYE)からの眼球像が結像することによる出力をA/D変換し、この像情報をCPU3に送信する。CPU3は視線検出に必要な眼球像の各特徴点を後述する所定のアルゴリズムに従って抽出し、更に各特徴点の位置から撮影者の視線を算出する。 The line-of-sight detection circuit 201 A / D-converts the output obtained by forming an eyeball image from the eyeball image sensor 17 (CCD-EYE), and transmits this image information to the CPU 3. The CPU 3 extracts each feature point of the eyeball image required for line-of-sight detection according to a predetermined algorithm described later, and further calculates the line-of-sight of the photographer from the position of each feature point.

測光回路202は、測光センサの役割も兼ねる撮像素子2から得られる信号を元に、被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、被写界輝度情報として、CPU3に送る。 The photometric circuit 202 amplifies the luminance signal output corresponding to the brightness of the image field based on the signal obtained from the image sensor 2 that also serves as a photometric sensor, and then performs logarithmic compression and A / D conversion to obtain the image field. It is sent to the CPU 3 as brightness information.

自動焦点検出回路203は、撮像素子2におけるCCDの中に含まれる、位相差検出の為に使用される複数の画素からの信号電圧をA/D変換し、CPU3に送る。 The automatic focus detection circuit 203 A / D-converts signal voltages from a plurality of pixels used for phase difference detection included in the CCD in the image pickup device 2 and sends them to the CPU 3.

CPU3は前記複数の画素の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施例では、一例として、図3のファインダ内視野像で示した箇所に対応する撮像面上の位置に180か所の焦点検出ポイントがあるとする。 The CPU 3 calculates the distance from the signals of the plurality of pixels to the subject corresponding to each focus detection point. This is a known technique known as image plane phase detection AF. In this embodiment, as an example, it is assumed that there are 180 focus detection points at positions on the imaging surface corresponding to the locations shown in the field image in the finder of FIG.

信号入力回路204には不図示のレリーズボタンの第一ストロークでONし、カメラの測光、測距、視線検出動作等を開始するためのスイッチであるSWと、レリーズボタンの第二ストロークでONし、レリーズ動作を開始するためのスイッチであるSW2が接続される。前記の信号が信号入力回路204に入力され、CPU3に送信される。 The signal input circuit 204 is turned on by the first stroke of the release button (not shown), and is turned on by the switch 1 for starting the camera's metering, distance measurement, line-of-sight detection operation, etc., and the second stroke of the release button. Then, SW2, which is a switch for starting the release operation, is connected. The signal is input to the signal input circuit 204 and transmitted to the CPU 3.

図3はファインダ視野内を示した図で、表示装置10が動作した状態を示す。 FIG. 3 is a view showing the inside of the finder field of view, and shows a state in which the display device 10 is operated.

図3において、300は視野マスク、400は焦点検出領域、4001~4180は表示素子10に示されるスルー画像に、前記撮像面上における複数の焦点検出ポイントに対応する位置に重ねて表示した180個の測距点視標を示す。また、それらの指標の内、現在の合焦位置に対応する指標を図における合焦ポイントAのように強調表示を行う。 In FIG. 3, 300 is a field mask, 400 is a focal point detection region, and 4001 to 4180 are 180 images superimposed on a through image shown on the display element 10 at positions corresponding to a plurality of focal detection points on the imaging surface. Indicates a range-finding point optotype. Further, among those indexes, the index corresponding to the current focusing position is highlighted as in the focusing point A in the figure.

図4は視線検出方法の原理説明図であり、前述の図1の視線検出をおこなうための光学系の要約図に相当する。 FIG. 4 is an explanatory diagram of the principle of the line-of-sight detection method, and corresponds to a schematic diagram of an optical system for performing line-of-sight detection in FIG. 1 described above.

図4において、13a、13bは観察者に対して不感の赤外光を放射する発光ダイオード等の光源であり、各光源は受光レンズ16の光軸に対して略対称に配置され観察者の眼球14を照らしている。眼球14で反射した照明光の一部は受光レンズ16によって、眼球用撮像素子17に集光する。 In FIG. 4, 13a and 13b are light sources such as light emitting diodes that emit infrared light insensitive to the observer, and each light source is arranged substantially symmetrically with respect to the optical axis of the light receiving lens 16 and is the eyeball of the observer. It illuminates 14. A part of the illumination light reflected by the eyeball 14 is focused on the image pickup element 17 for the eyeball by the light receiving lens 16.

図5(A)は眼球用撮像素子17に投影される眼球像の概略図、同図(B)は眼球用撮像素子17におけるCCDの出力強度図である。図6は視線検出の概略フロールーチンを表している。 FIG. 5A is a schematic view of an eyeball image projected on the eyeball image sensor 17, and FIG. 5B is an output intensity diagram of the CCD in the eyeball image sensor 17. FIG. 6 shows a schematic flow routine for line-of-sight detection.

以下、図4~6を用いて、視線の検出手段を説明する。 Hereinafter, the line-of-sight detection means will be described with reference to FIGS. 4 to 6.

<視線検出動作の説明>
図6において、視線検出ルーチンが開始すると、S001において、光源13a、13bは観察者の眼球14に向けて赤外光を放射する。上記赤外光によって照明された観察者の眼球像は、眼球用撮像素子17上に受光レンズ16を通して結像し、眼球用撮像素子17により光電変換がなされ、眼球像は電気信号として処理が可能となる。
<Explanation of line-of-sight detection operation>
In FIG. 6, when the line-of-sight detection routine is started, in S001, the light sources 13a and 13b radiate infrared light toward the observer's eyeball 14. The observer's eyeball image illuminated by the infrared light is imaged through a light receiving lens 16 on the eyeball image sensor 17, photoelectric conversion is performed by the eyeball image sensor 17, and the eyeball image can be processed as an electric signal. It becomes.

ステップS002において上記のように眼球用撮像素子17から得られた眼球画像信号をCPU3に送る。 In step S002, the eyeball image signal obtained from the eyeball image sensor 17 as described above is sent to the CPU 3.

ステップS003では、S002において得られた眼球画像信号の情報から、図4に示す光源13a、13bの角膜反射像Pd,Pe及び瞳孔中心cに対応する点の座標を求める。光源13a、13bより放射された赤外光は観察者の眼球14の角膜142を照明し、このとき角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは受光レンズ16により集光され、眼球用撮像素子17上に結像する(図示の点Pd’,Pe’)。同様に瞳孔141の端部a、bからの光束も眼球用撮像素子17上に結像する。 In step S003, the coordinates of the points corresponding to the corneal reflex images Pd, Pe and the pupil center c of the light sources 13a and 13b shown in FIG. 4 are obtained from the information of the eyeball image signal obtained in S002. The infrared light emitted from the light sources 13a and 13b illuminates the cornea 142 of the observer's eyeball 14, and the corneal reflex images Pd and Pe formed by a part of the infrared light reflected on the surface of the cornea 142 at this time are The light is collected by the light receiving lens 16 and imaged on the image pickup element 17 for the eyeball (points Pd', Pe'in the figure). Similarly, the luminous flux from the ends a and b of the pupil 141 is also imaged on the image sensor 17 for the eyeball.

図5では、図5(a)において眼球用撮像素子17から得られる反射像の画像例を、図5(b)に上記画像例の領域αにおける、眼球用撮像素子17から得られる輝度情報例を示す。 5A shows an example of an image of a reflected image obtained from the image sensor 17 for an eyeball in FIG. 5A, and FIG. 5B shows an example of luminance information obtained from the image sensor 17 for an eyeball in the region α of the image example. Is shown.

図示のように、水平方向をX軸、垂直方向をY軸とする。このとき、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとする。また、瞳孔14bの端部a、bからの光束が結像した像a’,b’のX軸方向の座標をXa、Xbとする。(b)の輝度情報例において、光源13a、13bの角膜反射像が結像した像Pd’,Pe’に相当する位置Xd,Xeでは、極端に強いレベルの輝度が得られている。瞳孔141の領域に相当する、座標XaからXbの間の領域は、上記Xd、Xeの位置を除き、極端に低いレベルの輝度が得られる。 As shown in the figure, the horizontal direction is the X axis and the vertical direction is the Y axis. At this time, the coordinates in the X-axis direction (horizontal direction) of the images Pd ′ and Pe ′ in which the corneal reflection images of the light sources 13a and 13b are formed are defined as Xd and Xe. Further, let Xa and Xb be the coordinates in the X-axis direction of the images a'and b'in which the light fluxes from the ends a and b of the pupil 14b are imaged. In the luminance information example of (b), an extremely strong level of luminance is obtained at the positions Xd and Xe corresponding to the images Pd'and Pe'in which the corneal reflection images of the light sources 13a and 13b are formed. The region between the coordinates Xa and Xb, which corresponds to the region of the pupil 141, has an extremely low level of brightness except for the positions of Xd and Xe.

これに対し、瞳孔141の外側の光彩143の領域に相当する、Xaより低いX座標の値を持つ領域及びXbより高いX座標の値を持つ領域では、前記2種の輝度レベルの中間の値が得られる。上記X座標位置に対する輝度レベルの変動情報から、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX座標Xd,Xeと、瞳孔端の像a’,b’のX座標Xa、Xbを得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合、眼球用撮像素子17上に結像する瞳孔中心cに相当する箇所(c’とする)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。上記より、眼球用撮像素子17上に結像する瞳孔中心に相当するc’のX座標、光源13a、13bの角膜反射像Pd’,Pe’の座標を見積もることができた。 On the other hand, in the region having the X coordinate value lower than Xa and the region having the X coordinate value higher than Xb, which corresponds to the region of the iris 143 outside the pupil 141, the value between the two luminance levels is intermediate. Is obtained. From the variation information of the luminance level with respect to the X coordinate position, the X coordinates Xd and Xe of the images Pd'and Pe'imaged by the corneal reflex images of the light sources 13a and 13b and the X coordinates of the pupil end images a'and b'. Xa and Xb can be obtained. Further, when the rotation angle θx of the optical axis of the eyeball 14 with respect to the optical axis of the light receiving lens 16 is small, the coordinates Xc of the portion (referred to as c') corresponding to the pupil center c imaged on the image pickup device 17 for the eyeball are set. It can be expressed as Xc≈ (Xa + Xb) / 2. From the above, it was possible to estimate the X coordinate of c'corresponding to the center of the pupil imaged on the image sensor 17 for the eyeball and the coordinates of the corneal reflection images Pd'and Pe'of the light sources 13a and 13b.

さらに、ステップS004では、眼球像の結像倍率βを算出する。βは受光レンズ16に対する眼球14の位置により決まる倍率で、実質的には角膜反射像Pd‘、Pe’の間隔(Xd-Xe)の関数として求めることができる。 Further, in step S004, the image magnification β of the eyeball image is calculated. β is a magnification determined by the position of the eyeball 14 with respect to the light receiving lens 16, and can be substantially obtained as a function of the distance (Xd—Xe) between the corneal reflex images Pd ′ and Pe ′.

また、ステップS005では、角膜反射像Pd及びPeの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致するため、角膜142の曲率中心Oと瞳孔141の中心cまでの標準的な距離をOcとすると、眼球14の光軸のZ-X平面内の回転角θは、β*Oc*SINθ≒{(Xd+Xe)/2}-Xc
の関係式から求めることができる。また、図4、図5においては、観察者の眼球がY軸に垂直な平面内で回転する場合の回転角θを算出する例を示しているが、観察者の眼球がX軸に垂直な平面内で回転する場合の回転角θyの算出方法も同様である。
Further, in step S005, since the X coordinate of the midpoint of the corneal reflection images Pd and Pe and the X coordinate of the curvature center O of the cornea 142 substantially match, the standard up to the curvature center O of the cornea 142 and the center c of the pupil 141. The angle of rotation θ X in the ZX plane of the optical axis of the eyeball 14 is β * Oc * SINθ X ≈ {(Xd + Xe) / 2} -Xc.
It can be obtained from the relational expression of. Further, FIGS. 4 and 5 show an example of calculating the angle of rotation θ X when the observer's eyeball rotates in a plane perpendicular to the Y axis, but the observer's eyeball is perpendicular to the X axis. The method for calculating the angle of rotation θy when rotating in a plane is the same.

前ステップにおいて観察者の眼球14の光軸の回転角θx、θyが算出されると、ステップS006では、θx、θyを用いて、表示素子10上で観察者の視線の位置(注視している点の位置。以下、注視点と称する。)を求める。注視点位置を表示素子10上での瞳孔141の中心cに対応する座標(Hx,Hy)であるとして、
Hx=m×(Ax×θx+Bx)
Hy=m×(Ay×θy+By)
と算出することができる。この時、係数mはカメラのファインダ光学系の構成で定まる定数で、回転角θx、θyを表示素子10上での瞳孔141の中心cに対応する位置座標に変換する変換係数であり、あらかじめ決定されてメモリ部4に記憶されているとする。また、Ax,Bx,Ay,Byは観察者の視線の個人差を補正する視線補正係数であり、後述するキャリブレーション作業を行うことで取得され、視線検出ルーチンが開始する前にメモリ部4に記憶されているものとする。
When the rotation angles θx and θy of the optical axis of the observer's eyeball 14 are calculated in the previous step, in step S006, the position of the observer's line of sight (gaze) on the display element 10 using θx and θy. The position of the point. Hereinafter referred to as the gazing point) is obtained. Assuming that the gazing point position is the coordinates (Hx, Hy) corresponding to the center c of the pupil 141 on the display element 10.
Hx = m × (Ax × θx + Bx)
Hy = m × (Ay × θy + By)
Can be calculated. At this time, the coefficient m is a constant determined by the configuration of the finder optical system of the camera, and is a conversion coefficient for converting the rotation angles θx and θy into the position coordinates corresponding to the center c of the pupil 141 on the display element 10, and is determined in advance. It is assumed that the coefficient is stored in the memory unit 4. Further, Ax, Bx, Ay, and By are line-of-sight correction coefficients that correct individual differences in the line of sight of the observer, and are acquired by performing calibration work described later, and are stored in the memory unit 4 before the line-of-sight detection routine starts. It shall be remembered.

上記のように表示素子10上での瞳孔141の中心cの座標(Hx,Hy)を算出した後、ステップS007においてメモリ部4に上記座標を記憶して、視線検出ルーチンを終える。 After calculating the coordinates (Hx, Hy) of the center c of the pupil 141 on the display element 10 as described above, the coordinates are stored in the memory unit 4 in step S007, and the line-of-sight detection routine is completed.

上記は光源13a、13bの角膜反射像を利用した表示素子上での注視点座標取得手法を示したが、それに限られるものではなく、撮像された眼球画像から眼球回転角度を取得する手法であれば本発明は適用可能である。上記視線検出ルーチンが、請求項1における視線位置検出手段に相当する。 The above shows a method for acquiring gaze point coordinates on a display element using the corneal reflection images of the light sources 13a and 13b, but the method is not limited to this, and any method for acquiring the eyeball rotation angle from the captured eyeball image. For example, the present invention is applicable. The line-of-sight detection routine corresponds to the line-of-sight position detecting means according to claim 1.

<キャリブレーション作業について>
前述のように、視線検出ルーチンにおいて眼球画像から眼球の回転角度θx、θyを取得し、瞳孔中心位置を表示素子10上において対応する位置に座標変換する演算を行って注視点位置を推定している。
<Calibration work>
As described above, the gaze point position is estimated by acquiring the rotation angles θx and θy of the eyeball from the eyeball image in the line-of-sight detection routine and performing a coordinate conversion of the pupil center position to the corresponding position on the display element 10. There is.

しかし、人間の眼球の形状の個人差等の要因により、前記視線補正係数Ax,Ay,Bx,Byの値を使用者によって適切な値に調整しなければ図3(b)に示したように、使用者が実際に注視している位置Bと演算された推定注視点Cの位置にずれが生じてしまう。上記例では位置Bの人物に注視したいのに、背景が注視されているとカメラ側が誤って推定しており、適切な焦点検出及び調整ができない状態に陥ってしまっている。 However, as shown in FIG. 3 (b), the values of the line-of-sight correction coefficients Ax, Ay, Bx, and By must be adjusted to appropriate values by the user due to factors such as individual differences in the shape of the human eyeball. , The position B that the user is actually gazing at and the calculated position of the estimated gazing point C are displaced from each other. In the above example, although the person at position B wants to be watched, the camera mistakenly estimates that the background is being watched, and the focus cannot be detected and adjusted appropriately.

そこで、カメラによって撮像を行う前に、キャリブレーション作業を行い、使用者に適切な補正係数の値を取得し、カメラに記憶させる必要がある。 Therefore, it is necessary to perform calibration work, acquire an appropriate correction coefficient value for the user, and store it in the camera before taking an image with the camera.

従来、キャリブレーション作業は、撮像前にファインダ視野内に図3(c)のような位置の異なる複数の指標を強調表示し、観察者にその指標を見てもらうことで行う。各視標注視時に注視点検出フローを行い、算出された複数の推定注視点座標と各視標座標の位置から適切な前記係数の値を求める作業を行うことが公知の技術として知られている。 Conventionally, the calibration work is performed by highlighting a plurality of indexes having different positions as shown in FIG. 3C in the field of view of the finder before imaging and having the observer see the indexes. It is known as a known technique to perform a gazing point detection flow at the time of gazing at each optotype and to obtain an appropriate value of the coefficient from a plurality of estimated gazing point coordinates calculated and the position of each optotype coordinate. ..

しかしながら、明るさ等の周囲の環境や撮影者の体勢等が変わると、カメラが検出する注視点位置が変化するため、状況が変わるたびに撮像を中止して頻繁にキャリブレーション作業を行わねば精度を維持できず、煩雑となる問題があった。そのため、ユーザーの撮像動作を妨げることがなく、自動的にキャリブレーションが行われて精度を確保するシステムが求められる。 However, if the surrounding environment such as brightness or the posture of the photographer changes, the position of the gazing point detected by the camera changes, so it is necessary to stop imaging and perform calibration work frequently every time the situation changes. There was a problem that it could not be maintained and became complicated. Therefore, there is a need for a system that automatically calibrates and ensures accuracy without interfering with the user's imaging operation.

<自動キャリブレーションシステム>
上記課題を解決するために、本発明においては、撮影動作にキャリブレーション作業を組み込み、自動的にキャリブレーションを行うことで、撮像を中止する必要がなく、ユーザーの利便性を向上させる構成をとっており、その原理を以下に説明する。
<Automatic calibration system>
In order to solve the above problems, in the present invention, by incorporating the calibration work into the shooting operation and automatically performing the calibration, it is not necessary to stop the imaging, and the user's convenience is improved. The principle is explained below.

キャリブレーション作業において、最も重要な点は、ユーザーが実際に表示素子10上のどの箇所を注視しているか特定することにある。従来は前述したように図3(c)のように表示素子10上に見るべき指標を示し、ユーザーにその指標を注視する動作を行わせることで注視箇所を特定しているが、当然その間はユーザー撮像動作を行うことができない問題がある。そのため、ユーザーの撮像動作中にユーザーが実際に注視している点を特定できるタイミングがあれば、それを利用して眼球画像からの推定注視点と実際の注視点との座標の差異を検出し、その差異データからキャリブレーションを行うことが望ましい。 In the calibration work, the most important point is to identify which part on the display element 10 the user is actually looking at. Conventionally, as described above, an index to be viewed is shown on the display element 10 as shown in FIG. 3 (c), and the user is made to perform an operation of gazing at the index to specify the gaze point. There is a problem that the user imaging operation cannot be performed. Therefore, if there is a timing that can identify the point that the user is actually gazing at during the user's imaging operation, it is used to detect the difference in coordinates between the estimated gazing point from the eyeball image and the actual gazing point. , It is desirable to calibrate from the difference data.

前記ユーザーの撮像動作中にユーザーが実際に注視している点を特定する作業を、本発明においては、動く被写体を撮像する場合に、表示素子10上に表示される被写体の動きをユーザーが視線で追っているか否かを判定することで行う。追っていると判定されれば、眼球画像からの推定注視点と前記動く被写体の位置にズレがあったとしても、実際の注視点は該被写体であるとする。 In the present invention, when a moving subject is imaged, the user gazes at the movement of the subject displayed on the display element 10 in the work of identifying the point that the user is actually gazing at during the image pickup operation of the user. It is done by judging whether or not it is chasing with. If it is determined that the subject is being followed, even if there is a discrepancy between the estimated gazing point from the eyeball image and the position of the moving subject, the actual gazing point is assumed to be the subject.

本発明の肝要な点として、視線で動く被写体を追っているか否かの判定を如何にして行うかという事項があり、その手段として、撮像素子2による時系列スルー画像から得られる被写体の動きベクトル(以下、オプティカルフローと記す)と、眼球用撮像素子17による眼球画像から得られる推定注視点の時系列データから得られる推定注視点の移動ベクトルを比較し、一致度合を判定することで行っている。 An important point of the present invention is how to determine whether or not to follow a subject moving by the line of sight, and as a means thereof, a motion vector of the subject obtained from a time-series through image by the image sensor 2 ( (Hereinafter referred to as optical flow) and the motion vector of the estimated gazing point obtained from the time-series data of the estimated gazing point obtained from the eyeball image obtained by the image sensor 17 for the eyeball are compared to determine the degree of agreement. ..

図7は動く被写体である走者をユーザーがファインダ内表示素子10を通して視認している状況を示しており、これを用いて上記の動作を説明する。 FIG. 7 shows a situation in which a user visually recognizes a runner, which is a moving subject, through a display element 10 in the finder, and the above operation will be described using this.

図7(a)では、ユーザーは時刻tにおいて、動く被写体である走者(点J)を実際には注視しているが、前記視線補正係数が適切な値になく、カメラが推定する注視点はS(座標(Hx,Hy))であると誤って認識している例を示している。本例では、注視点がベクトルZだけ並行移動してずれている。このとき、ユーザーは焦点を走者(点J)に合わせたいのに、点Sにある背景に焦点が誤って合わせられてしまう。このとき、時刻t1において得られるデータからのみでは、カメラはユーザーが実際に見ている注視点がどこかを判断することはできない。しかし、時系列的にデータを蓄積することで、その判定が可能となる。カメラはまず、上記時刻t1におけるスルー画像及び推定注視点位置座標(Hx1,Hy1)をメモリ部に記憶しておくとする。 In FIG. 7A, the user is actually gazing at the runner ( point J1), which is a moving subject, at time t1, but the line-of-sight correction coefficient is not at an appropriate value and is estimated by the camera. An example is shown in which the viewpoint is erroneously recognized as S 1 (coordinates (Hx 1 , Hy 1 )). In this example, the gazing point moves in parallel by the vector Z and is displaced. At this time, the user wants to focus on the runner ( point J1), but the background at the point S1 is erroneously focused. At this time, the camera cannot determine where the gaze point is actually seen by the user only from the data obtained at time t1. However, by accumulating data in chronological order, the determination becomes possible. First, it is assumed that the camera stores the through image and the estimated gaze point position coordinates (Hx1, Hy1) at the time t1 in the memory unit.

次に図7(b)では、時刻t1から所定の時間Δtだけ経過した時刻t2におけるファインダ内表示素子10の状況を示す。スルー画像中のユーザーが実際に注視している走者の位置が移動し、点J1から点J2に移動し、この時点でのカメラが推定する注視点位置は点S(座標(Hx,Hy))であると判断されている。点Jと点S間には変わらずズレが存在しており、推定注視点であるSに焦点を合わせると背景に焦点が合ってしまう。このとき、記憶しておいた時刻tにおいてのスルー画像及び推定注視点位置を使用し、時刻tにおける同情報と比較することで、時刻tから時刻tに移り変わった際の、画像内の被写体の移動量及び方向を示す図示の動きベクトルΔO及び推定注視点が移動した量と方向を示す図示の推定注視点移動ベクトルΔHを得ることができる。 Next, FIG. 7B shows the situation of the display element 10 in the finder at the time t2 when a predetermined time Δt has elapsed from the time t1. The position of the runner actually gazing at the user in the through image moves, moves from point J1 to point J2, and the gazing point position estimated by the camera at this point is point S 2 (coordinates (Hx 2 , Hy). 2 )) is determined to be. There is still a gap between the points J 2 and the point S 2 , and when the focus is on S 2 , which is the estimated gaze point, the background is in focus. At this time, by using the stored through image at time t1 and the estimated gaze point position and comparing with the same information at time t2, the image when the time t1 is changed to time t2. It is possible to obtain the illustrated motion vector ΔO indicating the amount and direction of movement of the subject in the subject and the illustrated estimated gazing point movement vector ΔH indicating the amount and direction of movement of the estimated gazing point.

ユーザーが画像内の被写体の動きを目で追っていた場合に、実際の注視点と推定注視点の間に位置のズレがあったとしても、両者の時系列的な移動量及び方向である被写体動きベクトルΔOと推定注視点移動ベクトルΔHはほぼ等しくなる。そのため、スルー画像内において、推定注視点付近にその移動ベクトルΔHとほぼ一致する動きベクトルを有する画像領域があれば、その領域こそが実際にユーザーが注視している領域だと判定することができる。 When the user follows the movement of the subject in the image with his / her eyes, even if there is a positional deviation between the actual gazing point and the estimated gazing point, the subject movement is the time-series movement amount and direction of both. The vector ΔO and the estimated gaze point movement vector ΔH are almost equal. Therefore, if there is an image region having a motion vector that substantially matches the movement vector ΔH in the vicinity of the estimated gazing point in the through image, it can be determined that the region is the region that the user is actually gazing at. ..

図7(b)においては、表示素子10に表示される画像内に写る人物の被写体の領域が、推定注視点移動ベクトルΔHとほぼ一致する動きベクトルΔOを有し、該領域が実際に注視している点Jであると判断できる。実際の注視点である点Jを特定できると、前述した従来のキャリブレーションと同様に、視線補正係数を再計算し修正することが可能となる。 In FIG. 7B, the region of the subject of the person shown in the image displayed on the display element 10 has a motion vector ΔO that substantially coincides with the estimated gaze point movement vector ΔH, and the region is actually gazed at. It can be judged that the point J2 is. If the point J2, which is the actual gazing point, can be specified, the line - of-sight correction coefficient can be recalculated and corrected in the same manner as in the conventional calibration described above.

上記構成により、ユーザーに通常の撮像動作以外の特定の動作を行わせることなく、カメラが自動的に推定注視点と実際の注視点の位置の差異を判断し、キャリブレーションを実施することができる。 With the above configuration, the camera can automatically determine the difference between the estimated gazing point and the actual gazing point position and perform calibration without causing the user to perform a specific operation other than the normal imaging operation. ..

<オプティカルフローの取得について>
上記を行うためには、撮影対象の動きベクトルを取得することが必要であり、本実施例では以下のような構成においてそれを実現している。
<Acquisition of optical flow>
In order to perform the above, it is necessary to acquire the motion vector of the object to be photographed, and in this embodiment, it is realized by the following configuration.

近年撮像素子の高機能化が進展しており、画素数、フレームレートの向上などが図られている。この信号を利用して複数の画像間で対象物の動きを示すベクトルデータ(オプティカルフロー)を求める方法が知られている。本実施例では、上記オプティカルフローをスルー画像から取得する構成をとる。CPU3に含まれる画像処理部は撮像素子2から得られた複数の画像間の比較に基づいてオプティカルフローを生成することができ、撮像素子2と画像処理部で請求項1におけるオプティカルフロー算出手段を構成する。 In recent years, the functionality of image sensors has been improved, and the number of pixels and the frame rate have been improved. A method of obtaining vector data (optical flow) indicating the movement of an object between a plurality of images using this signal is known. In this embodiment, the optical flow is acquired from the through image. The image processing unit included in the CPU 3 can generate an optical flow based on a comparison between a plurality of images obtained from the image pickup element 2, and the image pickup element 2 and the image processing unit can use the optical flow calculation means according to claim 1. Configure.

図8は複数の画像比較に基づくブレ検知信号であるオプティカルフローの求め方の例を示す図である。図1におけるCPU8の具体的な動作に対応する。図8ではいわゆるブロックマッチング法について説明するが他の方法を用いても良い。 FIG. 8 is a diagram showing an example of how to obtain an optical flow, which is a blur detection signal based on a plurality of image comparisons. Corresponds to the specific operation of the CPU 8 in FIG. Although the so-called block matching method will be described with reference to FIG. 8, other methods may be used.

図8(a)はある時刻tで取得された画像、図8(b)は(a)より後の時刻tn+1で取得された画像とし、図5(c)は前記時刻tおよびtn+1で取得された画像を重ねて表示し、検知されたベクトルを模式的に示した図である。 8 (a) is an image acquired at a certain time t n , FIG. 8 (b) is an image acquired at a time t n + 1 after (a), and FIG. 5 (c) is the time t n and t. It is a figure which superimposed and displayed the image acquired by n + 1 , and schematically showed the detected vector.

図8において61は時刻tで取得された画像を、62は被写体を、63は画像61中の着目領域を、64は時刻tn+1で取得された画像を、65は63と画面内の位置が同一の領域を、66は探索することを模式的に示す矢印を、67は画像61の被写体の領域63に対応する画像64中の領域を、68は時刻tおよびtn+1で取得された画像を重ねて表示した画像を、69は画像61中の領域63で検知された移動ベクトルをそれぞれ示している。 In FIG. 8, 61 is an image acquired at time t n , 62 is a subject, 63 is a region of interest in image 61, 64 is an image acquired at time t n + 1 , and 65 is 63, which is a position in the screen. Are acquired with an arrow schematically indicating that 66 is searching for the same region, 67 is an region in the image 64 corresponding to the region 63 of the subject of the image 61, and 68 is acquired at time nt n and t n + 1 . The image in which the images are superimposed is shown, and 69 shows the movement vector detected in the region 63 in the image 61, respectively.

図8に示すように異なる時間に取得された2つの画像61,64を用意する。そのうち一方の画像61内で被写体62が存在する領域63に着目する。この領域の大きさは任意に設定可能であるが例えば8x8画素などとすればよい。 As shown in FIG. 8, two images 61 and 64 acquired at different times are prepared. Focusing on the region 63 in which the subject 62 exists in one of the images 61. The size of this area can be set arbitrarily, but may be, for example, 8x8 pixels.

この領域63が画像64のどこに移動したかを差分絶対値(=SAD)などを基準に探索すればよい。具体的には画像64で画像内の位置が対応する領域65を中心に、予め定められた範囲、矢印66のように領域をずらしながらSADを計算すればよい。SADを基準に用いた場合は、最小となる位置が対応する領域67となる。結果として2つの画像68間で領域63はベクトル69のように移動したことが分かる。 The location of the area 63 in the image 64 may be searched based on the absolute difference value (= SAD) or the like. Specifically, the SAD may be calculated by shifting the region as shown by the arrow 66 in a predetermined range around the region 65 whose position in the image corresponds to the image 64. When SAD is used as a reference, the minimum position is the corresponding region 67. As a result, it can be seen that the region 63 moves like the vector 69 between the two images 68.

上記の動作を画面内に設定された複数の領域について行う(移動ベクトルは画面内で複数検知される。その後、主被写体に注目してベクトル選択をする、RANSAC(=RAndom Sample Consensus 既知の技術であり要部ではないので説明は割愛する)などの方法によって推定値を求める、などの方法で2つの画像間の移動ベクトルの評価値を1つ決めればよい。 The above operation is performed for a plurality of areas set in the screen (multiple movement vectors are detected in the screen. After that, vector selection is performed focusing on the main subject, using a known technique of RANSAC (= Random Sample Consensus). One evaluation value of the movement vector between two images may be determined by a method such as obtaining an estimated value by a method such as (the explanation is omitted because it is not a main part).

<視線検出機能及び自動キャリブレーション機能を有したカメラの動作>
これまでに原理を説明した、本実施例における視線検出機能及び自動キャリブレーション機能を有したカメラの動作について、図9のフローチャートに従って説明する。
<Operation of camera with line-of-sight detection function and automatic calibration function>
The operation of the camera having the line-of-sight detection function and the automatic calibration function in this embodiment, the principle of which has been described so far, will be described with reference to the flowchart of FIG.

カメラ電源がONされてフローが開始されると、ステップS101において、撮像素子2がスルー画像を取得開始し、画像信号をCPU3に送信し、CPU3は取得したスルー画像を表示素子10に表示する。ユーザーはファインダ内の表示素子10に表示されたスルー画像を見ることで被写体の視認を行う。表示素子10は請求項1における表示手段に相当する。 When the camera power is turned on and the flow is started, in step S101, the image sensor 2 starts acquiring a through image, transmits an image signal to the CPU 3, and the CPU 3 displays the acquired through image on the display element 10. The user visually recognizes the subject by seeing the through image displayed on the display element 10 in the finder. The display element 10 corresponds to the display means according to claim 1.

ステップS102では、電源がOFFされたか否かを判定し、OFFされていればフローは終了し、OFFされていなければ、ステップS103に進む。 In step S102, it is determined whether or not the power is turned off, and if it is turned off, the flow ends, and if it is not turned off, the process proceeds to step S103.

ステップS103では、ステップS101で被写体を視認し始めたユーザーの眼球画像の取得を開始し、前述の視線検出ルーチンを実施することで、表示素子10上での推定注視点位置座標(Hx,Hy)を取得する。 In step S103, acquisition of the eyeball image of the user who started to visually recognize the subject in step S101 is started, and by carrying out the above-mentioned line-of-sight detection routine, the estimated gaze point position coordinates (Hx, Hy) on the display element 10 are obtained. To get.

また、前ステップでの推定注視点位置座標の取得に続き、ステップS104では撮像素子2から得られるスルー画像をメモリ部4に記憶する。 Further, following the acquisition of the estimated gazing point position coordinates in the previous step, in step S104, the through image obtained from the image pickup device 2 is stored in the memory unit 4.

ステップS105では、メモリ部4に記憶された前記推定注視点位置座標の履歴が2個以上存在するかの判断を行う。2個未満であれはステップS106へ、2個以上存在すれば、注視点位置移動ベクトル及びオプティカルフローの取得が可能となるため、ステップS201へ進む。 In step S105, it is determined whether or not there are two or more histories of the estimated gazing point position coordinates stored in the memory unit 4. If there are less than two, the process proceeds to step S106. If two or more of them exist, the gazing point position movement vector and the optical flow can be acquired, so that the process proceeds to step S201.

ステップS106では、図3(a)で示したようなファインダ内での表示素子10上での180個の焦点検出ポイントを示した指標のうち、メモリ部4に記憶されたユーザーの推定注視点位置座標履歴の中で最後に記憶された座標に最も近い位置の指標を焦点検出ポイントと判断して、撮像素子2上での対応する測距用画素を用いて測距を行い、図示の合焦ポイントAのように該視標を強調表示する。 In step S106, among the indexes showing the 180 focus detection points on the display element 10 in the finder as shown in FIG. 3A, the estimated viewpoint position of the user stored in the memory unit 4 The index at the position closest to the last memorized coordinate in the coordinate history is determined to be the focus detection point, distance measurement is performed using the corresponding distance measurement pixel on the image sensor 2, and the focus is shown in the figure. The target is highlighted as in point A.

次に、ステップS107では所定時間の待機が行われる。 Next, in step S107, a standby for a predetermined time is performed.

ステップS108では、前述したレリーズボタンが押されてSW1がONであるか否かを判定する。ユーザーはステップS106で強調表示された視標の位置で合焦を行うことに同意した場合に前ステップの所定時間の待機の時点でレリーズボタンを押し、SW1をONにすることとなる。SW1がONであればステップS109に、ONになっていない場合はステップS103に戻り、注視点位置の再取得を行う。 In step S108, it is determined whether or not the release button described above is pressed and SW1 is ON. If the user agrees to focus at the position of the optotype highlighted in step S106, the user presses the release button at the time of waiting for a predetermined time in the previous step to turn on SW1. If SW1 is ON, the process returns to step S109, and if SW1 is not ON, the process returns to step S103 to reacquire the gazing point position.

ステップS109においては、ステップS104で取得された測距結果に対応する合焦点位置へレンズ群を移動し、ステップS110に進む。 In step S109, the lens group is moved to the in-focus position corresponding to the distance measurement result acquired in step S104, and the process proceeds to step S110.

ステップS110ではレリーズボタンがさらに押しこまれ、SW2がONになったか否かを判定する。ユーザーは現在の合焦位置で撮影を行うことを同意した場合にSW2をONにすることとなる。SW2がONであればステップS111に、ONになっていない場合はステップS106に戻り、同じ位置で測距・表示をやり直す。 In step S110, the release button is further pushed in, and it is determined whether or not SW2 is turned on. If the user agrees to shoot at the current in-focus position, SW2 will be turned on. If SW2 is ON, the process returns to step S111, and if SW2 is not ON, the process returns to step S106, and the distance measurement / display is repeated at the same position.

ステップS111は撮像動作が行われ、撮像素子2において画像信号が取得され、CPU3に送信され、メモリ部4に記憶される。 In step S111, an image pickup operation is performed, an image signal is acquired by the image pickup element 2, transmitted to the CPU 3, and stored in the memory unit 4.

ステップS112において、前ステップにおいて取得された画像を表示素子10に所定時間表示し、ステップS113に進む。 In step S112, the image acquired in the previous step is displayed on the display element 10 for a predetermined time, and the process proceeds to step S113.

ステップS113において、メモリ部4に記憶された推定注視点履歴データ及びスルー画像履歴についての消去を行う。その後、ステップS101に戻り、スルー画像を再取得・表示し始める。 In step S113, the estimated gazing point history data and the through image history stored in the memory unit 4 are erased. After that, the process returns to step S101, and the through image is reacquired and displayed.

ステップS201においては前ステップまでに記憶された推定注視点位置座標の履歴及びスルー画像の履歴から、最新のデータ及びその一つ前に記憶されたデータを比較して、前述した推定注視点の所定時間内での移動ベクトルである推定注視点移動ベクトル及び、画面内の被写体の所定時間内での動きベクトルであるオプティカルフローの取得を行う。本ステップの動作は、請求項1における視線移動ベクトル測定手段及びオプティカルフロー算出手段に相当する。 In step S201, the latest data and the data stored immediately before the latest data are compared with the history of the estimated gazing point position coordinates stored up to the previous step and the history of the through image, and the above-mentioned estimated gazing point is determined. The estimated gaze point movement vector, which is a movement vector in time, and the optical flow, which is a movement vector of the subject in a predetermined time on the screen, are acquired. The operation of this step corresponds to the line-of-sight movement vector measuring means and the optical flow calculating means in claim 1.

ステップS202においては、後に行う推定注視点移動ベクトルと画面内のオプティカルフローのベクトルの一致を判断する過程で用いる基準となる許容差異度合いを算出する。ここで、許容差異度合いは前ステップで算出された推定注視点移動ベクトルの大きさによって変動し、推定注視点移動ベクトルが大きいほど許容差異度合いが大きくなる(差異が大きくても許容される)とする。これは、ファインダ視野内における被写体の移動速度が大きくなるほど、その動きを視線で追った際に視線の動きと被写体の動きの差異が出やすくなり、被写体補足精度が下がることを防止するためである。被写体の速度を、それを視線で追っている視線の移動べクトル(推定注視点移動ベクトル)の大きさから判断し、許容差異度合いの算出に反映させている。これは請求項2における許容差異度合い算出手段に相当する。 In step S202, the degree of allowable difference used as a reference in the process of determining the agreement between the estimated gaze point movement vector and the optical flow vector in the screen, which is performed later, is calculated. Here, the degree of permissible difference varies depending on the size of the estimated gaze point movement vector calculated in the previous step, and the larger the estimated gaze point movement vector, the larger the permissible difference degree (even if the difference is large, it is permissible). do. This is because as the moving speed of the subject in the finder field of view increases, the difference between the movement of the line of sight and the movement of the subject becomes more likely to occur when the movement is followed by the line of sight, and the accuracy of capturing the subject is prevented from decreasing. .. The speed of the subject is judged from the size of the movement vector (estimated gaze point movement vector) of the line of sight that follows it, and is reflected in the calculation of the degree of allowable difference. This corresponds to the means for calculating the degree of allowable difference in claim 2.

ステップS203においては、前ステップで取得された推定注視点移動ベクトルと所定度合い以上に一致するオプティカルフローを有する被写体領域が画面内にあるか否かの判定を行う。両ベクトルの一致の判定は前ステップで算出した許容差異度合いを用いて行い、両ベクトルの差異が該許容差異度合いの範囲内に収まる場合は一致と判断される。一致する領域がある場合にはその座標を取得し、ステップS204に進む。本ステップにおける動作は請求項1における移動ベクトル一致度合判定手段に相当する。一致する領域が無ければステップS106に戻り、最新の推定注視点位置で測距を行う。 In step S203, it is determined whether or not there is a subject area in the screen having an optical flow that matches the estimated gaze point movement vector acquired in the previous step by a predetermined degree or more. The determination of the match between the two vectors is performed using the allowable difference degree calculated in the previous step, and if the difference between the two vectors falls within the range of the allowable difference degree, it is judged to be a match. If there is a matching area, the coordinates are acquired and the process proceeds to step S204. The operation in this step corresponds to the movement vector matching degree determination means in claim 1. If there is no matching area, the process returns to step S106, and distance measurement is performed at the latest estimated gaze point position.

ステップS204においては前ステップで取得された推定注視点移動ベクトルと所定度合い以上に一致するオプティカルフローを有する被写体領域の座標と、最新の推定注視点の座標の位置を比較し、両者が所定値以内の近い位置にある場合には、その領域こそがユーザーが実際に注視している点であると判断し、ステップS205に進む。これは、推定注視点位置は実際の注視点から個人差等の誤差により位置がずれるが、そのずれ量は大きくはなく、両者は近傍に存在すると判断できるためである。所定以上に離れている場合には前記ベクトル同士の一致は偶然であるとして、ステップS106に戻り、最新の推定注視点位置で測距を行う。 In step S204, the positions of the coordinates of the subject area having an optical flow that matches the estimated gaze point movement vector acquired in the previous step by a predetermined degree or more and the coordinates of the latest estimated gaze point are compared, and both are within a predetermined value. If the position is close to, it is determined that the area is the point that the user is actually paying attention to, and the process proceeds to step S205. This is because the estimated gazing point position deviates from the actual gazing point due to an error such as an individual difference, but the amount of the deviation is not large and it can be judged that both exist in the vicinity. If the vectors are separated by a predetermined distance or more, it is considered that the coincidence between the vectors is a coincidence, and the process returns to step S106 to perform distance measurement at the latest estimated gazing point position.

ステップS205においては上記オプティカルフローを有する領域こそがユーザーが実際に注視している点であるとして、その位置において測距を行い、該領域に相当する位置の焦点検出ポイントの指標を強調表示する。ステップS203からS205における実際に注視している点を特定する過程は、請求項1における被写体領域特定手段に相当する。上記過程により、視線検出結果に誤差がある場合にも、ユーザーが実際に注目している被写体に焦点を合わせることが可能となり、被写体補足精度が向上する。 In step S205, assuming that the region having the optical flow is the point that the user is actually gazing at, distance measurement is performed at that position, and the index of the focus detection point at the position corresponding to the region is highlighted. The process of specifying the point actually being watched in steps S203 to S205 corresponds to the subject area specifying means in claim 1. Through the above process, even if there is an error in the line-of-sight detection result, it becomes possible to focus on the subject that the user is actually paying attention to, and the subject capture accuracy is improved.

次にステップS206においては所定時間の待機が行われ、ステップS207においては、レリーズボタンが押されてSW1がONであるか否かを判定する。ユーザーはステップ205で強調表示された視標の位置で合焦を行うことに同意した場合に前ステップの所定時間の待機の時点でレリーズボタンを押し、SW1をONにすることとなる。SW1がONであればステップS208に進み、ONになっていない場合はステップS102に戻り、注視点位置の再取得を行う。 Next, in step S206, a standby for a predetermined time is performed, and in step S207, the release button is pressed to determine whether or not SW1 is ON. If the user agrees to focus at the position of the optotype highlighted in step 205, the user presses the release button at the time of waiting for a predetermined time in the previous step to turn on SW1. If SW1 is ON, the process proceeds to step S208, and if it is not ON, the process returns to step S102 to reacquire the gazing point position.

ステップS208においては、ステップS205で取得された測距結果に対応する合焦点位置へレンズ群を移動し、ステップS209に進む。 In step S208, the lens group is moved to the in-focus position corresponding to the distance measurement result acquired in step S205, and the process proceeds to step S209.

ステップS209ではレリーズボタンがさらに押しこまれ、SW2がONになったか否かを判定する。ユーザーは現在の合焦位置で撮影を行うことを同意した場合にSW2をONにすることとなる。SW2がONであればステップS210に進み、ONになっていない場合はステップS205に戻り、同じ位置で測距・表示をやり直す。 In step S209, the release button is further pushed in, and it is determined whether or not SW2 is turned on. If the user agrees to shoot at the current in-focus position, SW2 will be turned on. If SW2 is ON, the process proceeds to step S210. If SW2 is not ON, the process returns to step S205, and the distance measurement / display is repeated at the same position.

ステップS210においては撮像動作が行われ、撮像素子2において画像信号が取得され、CPU3に送信され、メモリ部4に記憶される。 In step S210, an image pickup operation is performed, an image signal is acquired by the image pickup element 2, transmitted to the CPU 3, and stored in the memory unit 4.

ステップS211において、ユーザーが強調表示された前述のオプティカルフローを有する領域を正しい注視点位置と認識したため撮像動作が行われたと判断し、該領域の座標を用いて前述の視線補正係数を修正し、メモリ部4に記憶する。本ステップの動作は、請求項1における視線位置検出結果修正手段に相当する。その後、ステップS112に進み、取得画像を表示する。 In step S211 it is determined that the imaging operation was performed because the user recognized the highlighted area having the optical flow as the correct gaze position, and the coordinates of the area were used to correct the above-mentioned line-of-sight correction coefficient. It is stored in the memory unit 4. The operation of this step corresponds to the line-of-sight position detection result correction means in claim 1. After that, the process proceeds to step S112 to display the acquired image.

上記構成により、視線検出装置を有する被写体認識装置において、撮影者の注視する被写体を精度よく認識しつつ、かつ注視位置のキャリブレーション動作の自動化を図り、撮影者の利便性を向上する事を達成できた。 With the above configuration, in a subject recognition device having a line-of-sight detection device, it is possible to accurately recognize the subject to be gazed by the photographer and to automate the calibration operation of the gaze position to improve the convenience of the photographer. did it.

1 撮影レンズ
2 撮像素子
3 CPU
4 メモリ部
10 表示素子
11 表示素子駆動回路
12 接眼レンズ
13a~f 照明光源
14 眼球
15 光分割器
16 受光レンズ
17 眼球用撮像素子
111 絞り
112 絞り駆動部
113 レンズ駆動モーター
114 レンズ駆動部材
115 フォトカプラー
116 パルス板
117 マウント接点
141 瞳孔
142 角膜
143 光彩
1 Shooting lens 2 Image sensor 3 CPU
4 Memory unit 10 Display element 11 Display element drive circuit 12 Eyepiece 13a to f Illumination light source 14 Eyeball 15 Light divider 16 Light receiving lens 17 Eyepiece image pickup element 111 Aperture 112 Aperture drive unit 113 Lens drive motor 114 Lens drive member 115 Photocoupler 116 pulse plate 117 mount contact 141 pupil 142 cornea 143 glow

Claims (2)

撮像手段と、
撮像した画像を表示する表示手段と、
撮影者の視線位置を検出する視線位置検出手段と、
前記撮像手段により取得された画像に基づいて、オプティカルフローを算出する、オプティカルフロー算出手段と、
前記視線位置検出手段により測定された撮影者の視線位置が、所定の時間に移動する移動量及び移動方向を測定する視線移動ベクトル測定手段と、
前記オプティカルフロー算出手段により算出されたオプティカルフローと、前記視線移動ベクトル取得手段により取得された視線移動ベクトルとを比較し、その差異から両者の一致度合を判断する、移動ベクトル一致度合判定手段と、
該判定手段により、両者が一致する判定が出た場合に、該オプティカルフローを有する画像領域を抽出し、該領域が被写体領域であると特定する被写体領域特定手段と、
前記特定された被写体領域の位置座標を用いることで、前記視線位置の検出結果を修正する視線位置検出結果修正手段と、
を有することを特徴とする被写体認識装置。
Imaging means and
Display means for displaying captured images and
A line-of-sight position detecting means for detecting the line-of-sight position of the photographer,
An optical flow calculation means that calculates an optical flow based on an image acquired by the image pickup means, and an optical flow calculation means.
A line-of-sight movement vector measuring means for measuring a movement amount and a movement direction in which the photographer's line-of-sight position measured by the line-of-sight position detecting means moves at a predetermined time.
An optical flow calculated by the optical flow calculation means and a line-of-sight movement vector acquired by the line-of-sight movement vector acquisition means are compared, and the degree of coincidence between the two is determined from the difference.
When the determination means determines that the two match, an image region having the optical flow is extracted, and the subject region specifying means for identifying the region as the subject region is used.
By using the position coordinates of the specified subject area, the line-of-sight position detection result correction means for correcting the line-of-sight position detection result, and the line-of-sight position detection result correction means.
A subject recognition device characterized by having.
前記視線移動ベクトルと前記オプティカルフローが一致しているとみなされる、両ベクトルの差異の許容範囲である、許容差異度合いを算出する許容差異度合い算出手段を有し、前記許容差異度合い算出手段は、前記視線移動ベクトル測定手段により測定された視線移動ベクトルの大きさにより、その許容差異度合いを決定し、視線移動ベクトルが大きいほど、その許容される差異度合いを大きくし、前記移動ベクトル一致度合判定手段において、両ベクトルが前記許容差異度合いの範囲内にある場合は、両ベクトルが一致しているとみなすことを特徴とする請求項1に記載の被写体認識装置。 The permissible difference degree calculating means for calculating the permissible difference degree, which is the permissible range of the difference between the two vectors, in which the line-of-sight movement vector and the optical flow are considered to match, is provided. The permissible difference degree is determined by the magnitude of the line-of-sight movement vector measured by the line-of-sight movement vector measuring means, and the larger the line-of-sight movement vector is, the larger the permissible difference degree is, and the movement vector matching degree determination means. The subject recognition device according to claim 1, wherein when both vectors are within the range of the allowable difference degree, it is considered that both vectors match.
JP2022026118A 2018-01-26 2022-02-22 Object recognition device and method of controlling the object recognition device Active JP7358530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022026118A JP7358530B2 (en) 2018-01-26 2022-02-22 Object recognition device and method of controlling the object recognition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018011024A JP7030545B2 (en) 2018-01-26 2018-01-26 Subject recognition device
JP2022026118A JP7358530B2 (en) 2018-01-26 2022-02-22 Object recognition device and method of controlling the object recognition device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018011024A Division JP7030545B2 (en) 2018-01-26 2018-01-26 Subject recognition device

Publications (2)

Publication Number Publication Date
JP2022066266A true JP2022066266A (en) 2022-04-28
JP7358530B2 JP7358530B2 (en) 2023-10-10

Family

ID=67472527

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018011024A Active JP7030545B2 (en) 2018-01-26 2018-01-26 Subject recognition device
JP2022026118A Active JP7358530B2 (en) 2018-01-26 2022-02-22 Object recognition device and method of controlling the object recognition device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018011024A Active JP7030545B2 (en) 2018-01-26 2018-01-26 Subject recognition device

Country Status (1)

Country Link
JP (2) JP7030545B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7293039B2 (en) * 2019-08-16 2023-06-19 キヤノン株式会社 Imaging device and its control method
JP7358130B2 (en) * 2019-09-12 2023-10-10 キヤノン株式会社 Electronic equipment and its control method
CN115184368B (en) * 2022-09-07 2022-12-23 枣庄市胜达精密铸造有限公司 Casting defect detection control system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120887A (en) * 2009-11-12 2011-06-23 Panasonic Corp Eye potential measuring device, ophthalmic diagnosis apparatus, visual line detector, wearable camera, head-mounted display, electronic glasses, and eye potential measuring method, and program
JP2015211741A (en) * 2014-05-02 2015-11-26 富士通株式会社 Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method
JP2018011024A (en) * 2016-07-15 2018-01-18 住友電気工業株式会社 Light receiving element and optical module
WO2018016209A1 (en) * 2016-07-20 2018-01-25 富士フイルム株式会社 Fixation position recognition device, imaging device, display device, fixation position recognition method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120887A (en) * 2009-11-12 2011-06-23 Panasonic Corp Eye potential measuring device, ophthalmic diagnosis apparatus, visual line detector, wearable camera, head-mounted display, electronic glasses, and eye potential measuring method, and program
JP2015211741A (en) * 2014-05-02 2015-11-26 富士通株式会社 Line-of-sight state determination device, line-of-sight state determination program and line-of-sight state determination method
JP2018011024A (en) * 2016-07-15 2018-01-18 住友電気工業株式会社 Light receiving element and optical module
WO2018016209A1 (en) * 2016-07-20 2018-01-25 富士フイルム株式会社 Fixation position recognition device, imaging device, display device, fixation position recognition method, and program

Also Published As

Publication number Publication date
JP2019129461A (en) 2019-08-01
JP7358530B2 (en) 2023-10-10
JP7030545B2 (en) 2022-03-07

Similar Documents

Publication Publication Date Title
JP7358530B2 (en) Object recognition device and method of controlling the object recognition device
JP5171468B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5003529B2 (en) Imaging apparatus and object detection method
KR100224538B1 (en) Viewpoint detecting device
JP2024003037A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
JP2017034569A (en) Imaging apparatus and control method therefor
JP7293039B2 (en) Imaging device and its control method
JP2020106552A (en) Subject recognition device
JP2022096819A (en) Sight line detection device
JPH0556924A (en) Video camera
JP2004008323A (en) Optical device with visual axis function
JP2002301030A (en) Equipment to detect sight line
US11632496B2 (en) Image pickup apparatus for detecting line-of-sight position, control method therefor, and storage medium
US20240085979A1 (en) Recording device, image-capturing apparatus, control method, and recording system
US11930266B2 (en) Line-of-sight detection apparatus, imaging apparatus, line-of-sight detection method, and non-transitory computer-readable storage medium
US20230186520A1 (en) Gaze detection apparatus
JPH05196862A (en) Camera with line of sight detecting function
JP7358130B2 (en) Electronic equipment and its control method
JP2023073758A (en) Electronic device and control method
JP2023006629A (en) Control device and control method
JP2023074878A (en) Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program
JP2022131325A (en) Line-of-sight detection device and method for controlling the same
JP2022165239A (en) Imaging apparatus and control method for the same, and program
JP3219491B2 (en) Eye gaze detection device
JP3184634B2 (en) Optical device having line-of-sight detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230927

R151 Written notification of patent or utility model registration

Ref document number: 7358530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151