JP2022082280A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2022082280A
JP2022082280A JP2020193753A JP2020193753A JP2022082280A JP 2022082280 A JP2022082280 A JP 2022082280A JP 2020193753 A JP2020193753 A JP 2020193753A JP 2020193753 A JP2020193753 A JP 2020193753A JP 2022082280 A JP2022082280 A JP 2022082280A
Authority
JP
Japan
Prior art keywords
image
subject
image processing
observation object
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020193753A
Other languages
Japanese (ja)
Inventor
嘉伸 海老澤
Yoshinobu Ebisawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2020193753A priority Critical patent/JP2022082280A/en
Publication of JP2022082280A publication Critical patent/JP2022082280A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

To accurately detect an object person's point of fixation on an observation object whose position and angle change.SOLUTION: An image processing system 1 comprises: an optical system 3 for object person detection for acquiring a face image necessary for detection of the angle and position of the line of sight of an object person Sp; an optical system 5 for object detection for acquiring an object image necessary for detection of the arrangement angle and position of an observation object So that is observed by the object person Sp; and a computer 9 that executes image processing on the face image and the object image. The computer 9 specifies the three-dimensional coordinates of a marker on the observation object So based on the object image, calculates the arrangement angle and position of the observation object So based on the three-dimensional coordinates of the marker; calculates the angle and position of the line of sight of the object person Sp based on the face image, and detects the object person Sp's point of fixation on a specific surface on the observation object So based on the angle and position of the line of sight and the arrangement angle and position of the observation object So.SELECTED DRAWING: Figure 1

Description

本発明は、画像を処理する画像処理システム及び画像処理方法に関する。 The present invention relates to an image processing system and an image processing method for processing an image.

近年、ビデオカメラを使用して得られた顔画像を処理する顔画像処理装置が普及しつつある(例えば、下記特許文献1,2参照)。例えば、このような顔画像処理装置では、顔画像を処理することによって、瞳孔の三次元座標、及びカメラから瞳孔中心を結ぶ直線に対する視線の角度を求め、これらを基に視線を検出している。 In recent years, a face image processing device that processes a face image obtained by using a video camera has become widespread (see, for example, Patent Documents 1 and 2 below). For example, in such a face image processing device, by processing a face image, the three-dimensional coordinates of the pupil and the angle of the line of sight with respect to the straight line connecting the center of the pupil from the camera are obtained, and the line of sight is detected based on these. ..

特許第4500992号Patent No. 4500992 特許第4517049号Patent No. 4517049

昨今の製品の製造現場では、検査員等の対象者が製品を手に持って目視検査を行うことによって製品検査が行われている。このようなシーンにおいても、上述した特許文献1,2に記載の装置を利用することにより、対象者の視線の始点及び方向が検出可能とされる。しかしながら、製品検査時には製品等の観察対象物の位置及び角度が絶えず変化する場合があり、このような場合においても観察対象物上の対象者の注視点を検出して検出情報を出力することが望まれている。このような検出情報は、検査員の検査技術の向上、あるいは、検査員の検査効率の向上のために活用することができる。 In recent product manufacturing sites, product inspections are carried out by a target person such as an inspector holding the product in his hand and performing a visual inspection. Even in such a scene, the start point and direction of the line of sight of the subject can be detected by using the devices described in Patent Documents 1 and 2 described above. However, at the time of product inspection, the position and angle of the observation object such as the product may change constantly, and even in such a case, it is possible to detect the gazing point of the object on the observation object and output the detection information. It is desired. Such detection information can be utilized for improving the inspection technique of the inspector or improving the inspection efficiency of the inspector.

本発明は、上記課題に鑑みて為されたものであり、位置及び角度が変化する観察対象物に対する対象者の注視点を精度よく検出することが可能な画像処理システム及び画像処理方法を提供することを目的とする。 The present invention has been made in view of the above problems, and provides an image processing system and an image processing method capable of accurately detecting the gaze point of a subject with respect to an observation object whose position and angle change. The purpose is.

上記課題を解決するため、本発明の一形態に係る画像処理システムは、対象者の顔を撮像するカメラを含み、対象者の視線の角度及び位置の検出に必要な顔画像を取得するための対象者検出用光学系と、対象者の観察対象の観察対象物を撮像するカメラを含み、観察対象物の配置角度及び位置の検出に必要な対象物画像を取得するための対象物検出用光学系と、顔画像及び対象物画像を対象に画像処理を実行する算出部と、を備え、算出部は、対象物画像を基に、観察対象物上のマーカの三次元位置を特定し、マーカの三次元位置を基に、観察対象物の配置角度及び位置を算出し、顔画像を基に対象者の視線の角度及び位置を算出し、視線の角度及び位置と、観察対象物の配置角度及び位置とを基に、観察対象物上の特定の面における対象者の注視点を検出する。 In order to solve the above problems, the image processing system according to one embodiment of the present invention includes a camera that captures the face of the subject, and acquires a face image necessary for detecting the angle and position of the line of sight of the subject. An optical system for detecting an object and an optical system for detecting an object for acquiring an object image necessary for detecting the arrangement angle and position of the object to be observed, including a camera for capturing the observation object of the object to be observed by the object. It includes a system and a calculation unit that executes image processing on the face image and the object image. The calculation unit identifies the three-dimensional position of the marker on the observation object based on the object image, and the marker. The placement angle and position of the observation object are calculated based on the three-dimensional position of, and the line-of-sight angle and position of the subject are calculated based on the face image. Based on the position and the position, the gaze point of the subject on a specific surface on the observation object is detected.

あるいは、本発明の他の形態に係る画像処理方法は、画像処理システムが実行する画像処理方法であって、対象者の顔を撮像して、対象者の視線の角度及び位置の検出に必要な顔画像を取得するステップと、対象者の観察対象の観察対象物を撮像して、観察対象物の配置角度及び位置の検出に必要な対象物画像を取得するステップと、顔画像及び対象物画像を対象に画像処理を実行するステップと、を備え、画像処理を実行するステップでは、対象物画像を基に、観察対象物上のマーカの三次元位置を特定し、マーカの三次元位置を基に、観察対象物の配置角度及び位置を算出し、顔画像を基に対象者の視線の角度及び位置を算出し、視線の角度及び位置と、観察対象物の配置角度及び位置とを基に、観察対象物上の特定の面における対象者の注視点を検出する。 Alternatively, the image processing method according to another aspect of the present invention is an image processing method executed by an image processing system, which is necessary for capturing an image of the subject's face and detecting the angle and position of the subject's line of sight. A step of acquiring a face image, a step of acquiring an object image necessary for detecting the arrangement angle and position of the observation object by imaging the observation object of the object to be observed, and a face image and an object image. In the step of executing image processing, the three-dimensional position of the marker on the observation object is specified based on the object image, and the three-dimensional position of the marker is used as the basis. In addition, the arrangement angle and position of the observation object are calculated, the angle and position of the line of sight of the subject are calculated based on the face image, and the angle and position of the line of sight and the arrangement angle and position of the observation object are used as the basis. , Detects the gaze point of the subject on a specific surface of the object to be observed.

上記形態の画像処理システムあるいは画像処理方法においては、対象者の顔画像が取得されるとともに観察対象物の画像である対象物画像が取得される。そして、対象物画像から検出された観察対象物上のマーカの三次元位置を用いて、観察対象物の配置角度及び位置が算出され、顔画像から対象者の視線の角度及び位置が算出され、それらを基に観察対象物上の対象者の注視点が検出される。これにより、観察対象物の目視検査を行う場合等で観察対象物の位置及び角度が変化する時でも観察対象物に対する対象者の注視点を精度よく検出することができる。 In the image processing system or image processing method of the above-described embodiment, the face image of the subject is acquired and the object image, which is an image of the observation object, is acquired. Then, the arrangement angle and position of the observation object are calculated using the three-dimensional position of the marker on the observation object detected from the object image, and the angle and position of the line of sight of the subject are calculated from the face image. Based on them, the gaze point of the subject on the observation object is detected. As a result, even when the position and angle of the observation object change due to a visual inspection of the observation object or the like, the gazing point of the subject with respect to the observation object can be accurately detected.

ここで、算出部は、観察対象物上の3点以上のマーカの三次元位置を特定し、3点以上のマーカの三次元位置を基に、観察対象物の配置角度及び位置を算出する、こととしてもよい。この場合、独立した3点以上のマーカの位置を用いることで観察対象物の配置角度及び位置がより高精度に算出され、観察対象物に対する対象者の注視点をより高精度に検出することができる。 Here, the calculation unit specifies the three-dimensional positions of three or more markers on the observation object, and calculates the arrangement angle and position of the observation object based on the three-dimensional positions of the three or more markers. It may be that. In this case, by using the positions of three or more independent markers, the placement angle and position of the observation object can be calculated with higher accuracy, and the gazing point of the subject with respect to the observation object can be detected with higher accuracy. can.

また、対象者検出用光学系と、対象物検出用光学系とを一体的に支持する支持部材をさらに備える、こととしてもよい。かかる構成においては、対象者検出用光学系を用いて検出される対象者の視線と、対象物検出用光学系を用いて検出される観察対象物の配置との関係を安定化させることができ、観察対象物に対する対象者の注視点を正確に検出することができる。 Further, a support member that integrally supports the target person detection optical system and the target object detection optical system may be further provided. In such a configuration, it is possible to stabilize the relationship between the line of sight of the subject detected by using the optical system for detecting the subject and the arrangement of the observation object detected by using the optical system for detecting the object. , It is possible to accurately detect the gaze point of the subject with respect to the observation object.

また、支持部材に支持され、対象者が観察対象物を把持する際の基準となる平板部材をさらに備える、こととしてもよい。この場合、対象物検出用光学系に対する観察対象物の位置が安定化されるため、観察対象物の配置角度及び位置を確実に検出できる。その結果、観察対象物に対する対象者の注視点をより確実に検出することができる。 Further, a flat plate member which is supported by the support member and serves as a reference when the subject grips the observation object may be further provided. In this case, since the position of the observation object with respect to the object detection optical system is stabilized, the arrangement angle and position of the observation object can be reliably detected. As a result, it is possible to more reliably detect the gaze point of the subject with respect to the observation object.

また、算出部は、観察対象物の配置角度及び位置を基に、三次元座標系における特定の面の式を求め、式と視線を表すベクトルとを基に、注視点を計算する、こととしてもよい。こうすれば、観察対象物上の特定の面の配置を式によって特定できるので、観察対象物上の特定の面における対象者の注視点を高精度に算出することができる。 In addition, the calculation unit obtains the formula of a specific surface in the three-dimensional coordinate system based on the arrangement angle and position of the observation object, and calculates the gazing point based on the formula and the vector representing the line of sight. May be good. By doing so, since the arrangement of the specific surface on the observation object can be specified by the formula, the gazing point of the subject on the specific surface on the observation object can be calculated with high accuracy.

また、算出部は、観察対象物の配置角度及び位置を基に、特定の面を複数に区切った面毎に式を求め、複数の面の式を用いて、複数の面の中からベクトルと交点を有する面を探索し、探索した当該面とベクトルとの交点を注視点として求める、こととしてもよい。このような構成によれば、形状が複雑な観察対象物を対象にした場合であっても、観察対象物上の特定の面の配置を、複数に区切った面毎に式によって特定できるので、観察対象物上の特定の面における対象者の注視点を高精度に算出することができる。 In addition, the calculation unit obtains an equation for each surface that divides a specific surface into a plurality of surfaces based on the arrangement angle and position of the observation object, and uses the equations of the plurality of surfaces to obtain a vector from the plurality of surfaces. A surface having an intersection may be searched for, and the intersection of the searched surface and the vector may be obtained as a gazing point. According to such a configuration, even when an observation object having a complicated shape is targeted, the arrangement of specific surfaces on the observation object can be specified by an equation for each surface divided into a plurality of areas. It is possible to calculate the gaze point of the subject on a specific surface of the observation object with high accuracy.

また、算出部は、予め複数の真のマーカの位置関係を記憶し、特定した複数のマーカの候補の三次元位置の中から、複数の真のマーカの三次元位置に絞り込み、絞り込んだ複数の真のマーカの三次元位置を基に観察対象物の配置角度及び位置を算出する、こととしてもよい。この場合、対象物画像から偽のマーカを含む複数のマーカが検出されたときにそれらのマーカの中から真のマーカに絞り込むことができる。その結果、観察対象物の配置を誤りなく検出でき、観察対象物上の特定の面における対象者の注視点を誤りなく検出することができる。 In addition, the calculation unit stores the positional relationship of a plurality of true markers in advance, narrows down the three-dimensional positions of the specified plurality of marker candidates to the three-dimensional positions of the plurality of true markers, and narrows down the plurality of positions. The placement angle and position of the observation object may be calculated based on the three-dimensional position of the true marker. In this case, when a plurality of markers including a fake marker are detected in the object image, the true marker can be narrowed down from those markers. As a result, the arrangement of the observation object can be detected without error, and the gazing point of the subject on a specific surface on the observation object can be detected without error.

また、算出部は、予め対象物検出用光学系によって得られた画像を基に、較正用視標の三次元位置を特定し、較正用視標の三次元位置を基に、顔画像を基に視線の角度及び位置を算出するための較正処理を予め実行する、こととしてもよい。この場合、対象者の注視点の検出精度を高めることができ、観察対象物上の特定の面における対象者の注視点を高精度に検出することができる。 In addition, the calculation unit identifies the three-dimensional position of the calibration optotype based on the image obtained in advance by the object detection optical system, and bases the face image on the basis of the three-dimensional position of the calibration optotype. A calibration process for calculating the angle and position of the line of sight may be performed in advance. In this case, the accuracy of detecting the gazing point of the subject can be improved, and the gazing point of the subject on a specific surface on the observation object can be detected with high accuracy.

本発明によれば、位置及び角度が変化する観察対象物に対する対象者の注視点を精度よく検出することができる。 According to the present invention, it is possible to accurately detect the gaze point of the subject with respect to the observation object whose position and angle change.

実施形態に係る画像処理システムを示す側面図である。It is a side view which shows the image processing system which concerns on embodiment. 図1の画像処理システムの処理対象である観察対象物Soの外観図である。FIG. 3 is an external view of an observation object So, which is a processing target of the image processing system of FIG. 1. 観察対象物Soに付されるマーカM,M,Mの態様の例を示す図である。It is a figure which shows the example of the aspect of the markers M A , MB, and MC attached to the observation object So. 観察対象物So上に表示される視標の態様を示す図である。It is a figure which shows the mode of the optotype displayed on the observation object So. 実施形態に係るコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the computer which concerns on embodiment. 実施形態に係るコンピュータの機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the computer which concerns on embodiment. 実施形態に係る画像処理システムによる注視点検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the gaze point detection process by the image processing system which concerns on embodiment. 実施形態に係る画像処理システムの処理対象である観察対象物Soの側面図である。It is a side view of the observation object So which is the processing target of the image processing system which concerns on embodiment.

以下、図面を参照しつつ本発明に係る画像処理システムの好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。 Hereinafter, preferred embodiments of the image processing system according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts are designated by the same reference numerals, and duplicate description will be omitted.

まず、図1を参照して、実施形態に係る画像処理システム1の全体構成を説明する。図1は、画像処理システム1の側面図である。画像処理システム1は、電子基板等の板状の製品を検査員が目視検査する際に、製品の表面上の検査員の注視点の軌跡を検出してその検出結果を記録する処理システムである。この画像処理システム1は、検査員である対象者Sp及び検査対象の製品である観察対象物Soを撮像することにより、顔画像及び対象物画像を取得し、顔画像及び対象物画像を対象に画像処理を実行する装置群である。画像処理システム1は、対象者検出用光学系3、対象物検出用光学系5、テーブル7、コンピュータ(算出部)9、及び支持部材11を含んで構成されている。以下、画像処理システム1の各構成要素について説明する。 First, with reference to FIG. 1, the overall configuration of the image processing system 1 according to the embodiment will be described. FIG. 1 is a side view of the image processing system 1. The image processing system 1 is a processing system that detects the trajectory of the inspector's gazing point on the surface of the product and records the detection result when the inspector visually inspects a plate-shaped product such as an electronic substrate. .. This image processing system 1 acquires a face image and an object image by imaging the subject Sp who is an inspector and the observation object So which is a product to be inspected, and targets the face image and the object image. A group of devices that perform image processing. The image processing system 1 includes an optical system for detecting an object, an optical system for detecting an object 5, a table 7, a computer (calculation unit) 9, and a support member 11. Hereinafter, each component of the image processing system 1 will be described.

テーブル7は、対象者Spが検査を行う際に観察対象物Soを把持する際の基準となる天板部7aが、支柱7bにより支えられた構造を有する部材である。例えば、テーブル7は、対象者Spが観察対象物Soを把持する際に対象者Spの前腕部を支えて観察対象物Soの配置角度及び位置を安定させるため、及び対象者検出用光学系3をカバーして保護するために設けられる。天板部7aは、対象者検出用光学系3に対する対象者Spの撮影の障害となることを防ぐために、ガラス等の光透過性の材料により構成されることが好ましい。なお、対象者検出用光学系3をカバーして保護することを主目的にテーブル7が設けられる場合には、天板部7aを対象者Sp側に延ばした形状とし、その材質をガラス等の光透過性の材料により構成する。一方、観察対象物Soの配置角度及び位置を安定させることを主目的にテーブル7が設けられる場合には、天板部7aを、図1に示すような対象者検出用光学系3による撮影の障害にならないような形状とし、その材質を不透明な材料により構成してもよい。 The table 7 is a member having a structure in which the top plate portion 7a, which is a reference for gripping the observation object So when the subject Sp performs an inspection, is supported by the support column 7b. For example, the table 7 is used to support the forearm portion of the subject Sp when the subject Sp grips the observation object So to stabilize the arrangement angle and position of the observation object So, and the optical system 3 for detecting the subject. It is provided to cover and protect the. The top plate portion 7a is preferably made of a light-transmitting material such as glass in order to prevent the subject Sp from being photographed by the subject detection optical system 3. When the table 7 is provided mainly for the purpose of covering and protecting the target person detection optical system 3, the top plate portion 7a has a shape extended toward the target person Sp side, and the material thereof is glass or the like. It is composed of a light-transmitting material. On the other hand, when the table 7 is provided mainly for the purpose of stabilizing the arrangement angle and position of the observation object So, the top plate portion 7a is photographed by the subject detection optical system 3 as shown in FIG. The shape may be such that it does not become an obstacle, and the material may be made of an opaque material.

対象者検出用光学系3は、テーブル7の天板部7aの下部において天板部7aの一端側(図1の左側)に固定され、天板部7aの一端側に離れて位置する対象者Spの顔を向くように光軸が調整された2台のカメラ(ステレオカメラ)を含む。それぞれのカメラは、対象者検出用光学系3が支持部材11に取り付けられてから予めカメラ較正がされており、対象者Spの顔を撮像し、顔画像を取得および出力する。本実施形態では、2台のカメラは、インターレーススキャン方式の一つであるNTSC方式のCMOS(Complementary Metal Oxide Semiconductor)ビデオカメラであり、各カメラには、対象者Spの瞳孔、角膜反射、あるいは鼻孔等の特徴点を検出するために特許第4500992号に記載の構成の近赤外光源(例えば、発光波長帯が850nm及び940nmの2種類の光源)が取り付けられている。対象者検出用光学系3は、コンピュータ9からの命令に応じて、近赤外線光源を点灯させるとともに対象者Spの顔を撮像し、顔画像のデータをコンピュータ9に出力する。これらの顔画像は、コンピュータ9において、対象者Spの視線の角度及び位置を検出するために用いられる。 The target person detection optical system 3 is fixed to one end side (left side in FIG. 1) of the top plate portion 7a at the lower part of the top plate portion 7a of the table 7, and is located away from the one end side of the top plate portion 7a. Includes two cameras (stereo cameras) whose optical axes are adjusted to face Sp's face. Each camera is calibrated in advance after the subject detection optical system 3 is attached to the support member 11, and captures the face of the subject Sp to acquire and output a face image. In the present embodiment, the two cameras are NTSC CMOS (Complementary Metal Oxide Semiconductor) video cameras, which is one of the interlaced scan methods, and each camera has the pupil, corneal reflex, or nose of the subject Sp. In order to detect such feature points, a near-infrared light source having the configuration described in Patent No. 4500992 (for example, two types of light sources having emission wavelength bands of 850 nm and 940 nm) is attached. The subject detection optical system 3 turns on the near-infrared light source and images the face of the subject Sp in response to a command from the computer 9, and outputs the face image data to the computer 9. These facial images are used in the computer 9 to detect the angle and position of the line of sight of the subject Sp.

対象物検出用光学系5は、天板部7aの他端側(図1の右側)において天板部7aから離れた位置に固定され、天板部7aの上部に向くように光軸が調整された2台のカメラ(ステレオカメラ)を含む。それぞれのカメラは、対象物検出用光学系5が支持部材11に取り付けられてから予めカメラ較正がされており、対象者Spによって把持された観察対象物Soを、対象者Spに向かい合う面の反対側から撮像し、対象物画像を取得および出力する。本実施形態では、2台のカメラは、インターレーススキャン方式の一つであるNTSC方式のCMOSビデオカメラであり、各カメラには、観察対象物So上のマーカを検出するために近赤外光源(発光波長帯が940nmの光源)が取り付けられている。対象物検出用光学系5は、コンピュータ9からの命令に応じて、近赤外線光源を点灯させるとともに観察対象物Soを撮像し、対象物画像のデータをコンピュータ9に出力する。これらの対象物画像は、コンピュータ9において、観察対象物Soの配置角度及び位置を検出するために用いられる。 The object detection optical system 5 is fixed at a position away from the top plate portion 7a on the other end side (right side in FIG. 1) of the top plate portion 7a, and the optical axis is adjusted so as to face the upper portion of the top plate portion 7a. Includes two cameras (stereo cameras). Each camera is pre-calibrated after the object detection optical system 5 is attached to the support member 11, and the observation object So gripped by the object Sp is opposite to the surface facing the object Sp. The image is taken from the side, and the object image is acquired and output. In the present embodiment, the two cameras are NTSC CMOS video cameras, which is one of the interlaced scan methods, and each camera has a near-infrared light source (near-infrared light source) for detecting a marker on the observation object So. A light source with an emission wavelength band of 940 nm) is attached. The object detection optical system 5 turns on the near-infrared light source and images the observation object So in response to a command from the computer 9, and outputs the data of the object image to the computer 9. These object images are used in the computer 9 to detect the arrangement angle and position of the observation object So.

コンピュータ9は、対象者検出用光学系3及び対象物検出用光学系5の制御と、対象者検出用光学系3及び対象物検出用光学系5によって取得された顔画像及び対象物画像を対象にした画像処理とを実行するデータ処理装置である。コンピュータ9は、据置型または携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、コンピュータ9は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続されうる。 The computer 9 controls the object detection optical system 3 and the object detection optical system 5, and targets the face image and the object image acquired by the object detection optical system 3 and the object detection optical system 5. It is a data processing device that executes the image processing. The computer 9 may be built by a stationary or portable personal computer (PC), a workstation, or another type of computer. Alternatively, the computer 9 may be constructed by combining a plurality of arbitrary types of computers. When using multiple computers, these computers may be connected via a communication network such as the Internet or an intranet.

支持部材11は、床面等の平坦な固定面上に載置されて、テーブル7、対象者検出用光学系3、及び対象物検出用光学系5を、一体的に支持する支持部材である。すなわち、支持部材11は、テーブル7の天板部7aの一端側(図1の左側)下部において、その光軸が天板部7aから離れる方向に斜め左上方を向くように対象者検出用光学系3を支持する。このとき、支持部材11は、対象者検出用光学系3のカメラの光軸が天板部7aを通らないように対象者検出用光学系3を支持することが好ましい。加えて、支持部材11は、テーブル7の天板部7aの他端側(図1の右側)に離れた位置において、その光軸が天板部7aの上部を向くように対象物検出用光学系5を支持する。ここで、支持部材11は、テーブル7の固定面からの高さを対象者Spの身長に合わせて調整可能に構成されていてもよく、その場合には、対象者Spの顔の位置に合わせて対象者検出用光学系3のカメラの光軸の傾きを調整可能に構成されていてもよく、テーブル7の高さに合わせて対象物検出用光学系5のカメラの光軸の傾きを調整可能に構成されていてもよい。 The support member 11 is a support member that is placed on a flat fixed surface such as a floor surface and integrally supports the table 7, the object detection optical system 3, and the object detection optical system 5. .. That is, the support member 11 is the subject detection optical so that the optical axis of the support member 11 faces diagonally to the upper left in the direction away from the top plate portion 7a at the lower end side (left side in FIG. 1) of the top plate portion 7a of the table 7. Supports system 3. At this time, it is preferable that the support member 11 supports the target person detection optical system 3 so that the optical axis of the camera of the target person detection optical system 3 does not pass through the top plate portion 7a. In addition, the support member 11 is positioned away from the other end side (right side in FIG. 1) of the top plate portion 7a of the table 7, and the optical axis for object detection is such that the optical axis of the support member 11 faces the upper portion of the top plate portion 7a. Supports system 5. Here, the support member 11 may be configured so that the height of the table 7 from the fixed surface can be adjusted according to the height of the subject Sp, and in that case, the height of the support member 11 may be adjusted according to the position of the face of the subject Sp. The tilt of the optical axis of the camera of the object detection optical system 3 may be adjustable, and the tilt of the optical axis of the camera of the object detection optical system 5 may be adjusted according to the height of the table 7. It may be configured to be possible.

上記構成の画像処理システム1を用いる際には、対象者Spに対象者検出用光学系3の撮影範囲にその顔が入るように位置させる。そして、対象者Spに対して、その顔をテーブル7の天板部7aの上方に向けた状態で天板部7aの上面近傍において観察対象物Soを把持させ、観察対象物Soの特定の面である検査対象面を目視で検査させる。 When the image processing system 1 having the above configuration is used, the target person Sp is positioned so that the face is within the shooting range of the target person detection optical system 3. Then, the subject Sp is made to grip the observation target So in the vicinity of the upper surface of the top plate 7a with its face facing upward of the top plate 7a of the table 7, and a specific surface of the observation target So is held. The surface to be inspected is visually inspected.

図2には、観察対象物Soの外観の一例を示し、(a)部には観察対象物Soを検査対象面P側から見た外観を示し、(b)部には観察対象物Soを検査対象面Pの反対側の面Pから見た外観を示している。図2に示す観察対象物Soは、全体として凹凸面が不規則に形成された形状を有し、検査対象面Pには、対象者Spの視線検出処理の較正用の視標Mが付されている。また、検査対象面Pの反対側の面Pには、観察対象物Soの配置角度及び角度を算出するための基準として用いられる3点のマーカM,M,Mが付されている。ここでは、観察対象物Soの形状の例として、不規則な凹凸面を有する形状を挙げているが、平坦面を有する平板状の形状であってもよいし、円柱形状のように面形状が数式で近似できるような曲面を有する形状であってもよい。 FIG. 2 shows an example of the appearance of the observation object So, the part (a) shows the appearance of the observation object So as seen from the inspection target surface P1 side , and the part (b) shows the observation object So. Is shown as seen from the surface P2 on the opposite side of the surface P1 to be inspected. The observation object So shown in FIG. 2 has a shape in which uneven surfaces are irregularly formed as a whole, and the inspection target surface P1 has an optotype M1 for calibration of the line - of - sight detection process of the subject Sp. It is attached. Further, the surface P 2 on the opposite side of the surface P 1 to be inspected is provided with three markers M A , M B , and MC used as a reference for calculating the arrangement angle and the angle of the observation object So. ing. Here, as an example of the shape of the observation object So, a shape having an irregular uneven surface is given, but a flat plate shape having a flat surface may be used, or a surface shape such as a cylindrical shape may be used. It may be a shape having a curved surface that can be approximated by a mathematical formula.

観察対象物Soに付されるマーカM,M,Mとしては、白色等の対象物画像上で目立つ色彩のマーカが好ましく、LED等の発光体をマーカとして用いてもよく、発光体を用いる場合は対象物画像において中心精度が高まるような形状に映るように、発光部の高さが低く指向性が弱いLEDを用いる。また、対象物検出用光学系5のカメラとして近赤外線カメラを使用する場合には、再帰(再帰性)反射材料のマーカを用いることが好ましく、対象物検出用光学系5のカメラとしてカラーカメラを使用する場合には、背景に対して目立つ色(例えば、青色)のマーカを用いてもよい。 As the markers M A , MB, and MC attached to the observation object So, a marker having a color conspicuous on the object image such as white is preferable, and a light emitting body such as an LED may be used as the marker. When is used, an LED having a low light emitting portion and a weak directivity is used so that the image appears in a shape that enhances the center accuracy in the object image. When a near-infrared camera is used as the camera of the optical system 5 for detecting an object, it is preferable to use a marker made of a retroreflective material, and a color camera is used as the camera of the optical system 5 for detecting an object. When used, a marker having a color that stands out against the background (for example, blue) may be used.

図3の(a)部及び(b)部には、マーカM,M,Mの態様の例を示している。このように、マーカM,M,Mは、均一な色彩を有する所定形状(例えば、長方形)の内側の領域を別の色彩の外側の領域で囲むような態様が好ましい。このような態様では、図3の(a)部に示すように、内側の領域が赤外線を反射しやすい色彩(例えば、白色)を有し、外側の領域が赤外線を吸収しやすい色彩(例えば、黒色)を有することが好ましく、図3の(b)部に示すように、内側の領域が赤外線を吸収しやすい色彩(例えば、黒色)を有し、外側の領域が赤外線を反射しやすい色彩(例えば、白色)を有することも好ましい。 Part (a) and part (b) of FIG. 3 show examples of aspects of the markers M A , M B , and M C. As described above, it is preferable that the markers M A , MB, and MC have an embodiment in which the inner region of a predetermined shape (for example, a rectangle) having a uniform color is surrounded by the outer region of another color. In such an embodiment, as shown in part (a) of FIG. 3, the inner region has a color that easily reflects infrared rays (for example, white), and the outer region has a color that easily absorbs infrared rays (for example, for example). It is preferable to have black), and as shown in part (b) of FIG. 3, the inner region has a color that easily absorbs infrared rays (for example, black), and the outer region has a color that easily reflects infrared rays (for example, black). For example, it is also preferable to have white).

また、観察対象物Soの検査対象面Pに付される較正用の視標Mは、固定の大きさの視標であってもよいが、小型液晶ディスプレイ等を用いて、サイズが一度だけ、もしくは、繰り返し変化するような形態の視標Mであってもよい。このような形態の視標Mを用いることにより、対象者の視覚注意を引きやすい視標とすることができるため、対象者Spがより正確に視標Mに視線を向けることができる。その結果、較正が対象者Spの負担を少なくした状態で、より正しく較正を実行させることができる。図4は、観察対象物So上に表示される視標Mの態様の一例を示す図である。このように、視標M1は、大きなサイズから小さなサイズに動的に変化させるような態様で一度だけ、もしくは、繰り返し表示されることが好ましい。 Further, the calibration target M 1 attached to the inspection target surface P 1 of the observation target So may be a fixed size optotype, but the size may be once by using a small liquid crystal display or the like. However, the optotype M1 may be in a form that changes repeatedly. By using the optotype M 1 in such a form, it is possible to make the optotype easily attract the visual attention of the subject, so that the subject Sp can more accurately direct the line of sight to the optotype M 1 . As a result, the calibration can be performed more accurately while the calibration reduces the burden on the subject Sp. FIG. 4 is a diagram showing an example of an embodiment of the optotype M1 displayed on the observation object So. As described above, it is preferable that the optotype M1 is displayed only once or repeatedly in such a manner that the optotype M1 is dynamically changed from a large size to a small size.

図5は、コンピュータ9の一般的なハードウェア構成示すブロック図である。コンピュータ9は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU(プロセッサ)101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイやプリンタなどの出力装置106とを備える。 FIG. 5 is a block diagram showing a general hardware configuration of the computer 9. The computer 9 includes a CPU (processor) 101 for executing an operating system, an application program, and the like, a main storage unit 102 composed of a ROM and a RAM, an auxiliary storage unit 103 composed of a hard disk, a flash memory, and the like, and a network. It includes a communication control unit 104 composed of a card or a wireless communication module, an input device 105 such as a keyboard and a mouse, and an output device 106 such as a display and a printer.

後述するコンピュータ9の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。 Each functional element of the computer 9, which will be described later, loads predetermined software on the CPU 101 or the main storage unit 102, and operates the communication control unit 104, the input device 105, the output device 106, and the like under the control of the CPU 101. This is realized by reading and writing data in the storage unit 102 or the auxiliary storage unit 103. The data and database required for processing are stored in the main storage unit 102 or the auxiliary storage unit 103.

図6に示すように、コンピュータ9は、機能的構成要素として、撮像制御部21、画像取得部23、姿勢算出部25、視線算出部27、及び注視点検出部29を備える。以下、コンピュータ9の各構成要素の機能を説明する。 As shown in FIG. 6, the computer 9 includes an image pickup control unit 21, an image acquisition unit 23, a posture calculation unit 25, a line-of-sight calculation unit 27, and a gaze point detection unit 29 as functional components. Hereinafter, the functions of each component of the computer 9 will be described.

撮像制御部21は、対象者Spを対象とした注視点検出処理が開始された後に、対象者検出用光学系3及び対象物検出用光学系5による撮像を制御する。その際、撮像制御部21は、特許第4500992号に記載のように、対象者検出用光学系3のステレオカメラによる撮像タイミングに応じて、ステレオカメラに取り付けられた2種類の発光波長の近赤外光源の点灯タイミングを制御する。このような撮像制御部21の制御により、ステレオカメラを構成する各カメラにおいては、1秒間に30枚得られる1フレームの顔画像として、奇数番目の水平画素ラインで構成される奇数フィールドの画像と、偶数番目の水平画素ラインで構成される偶数フィールドの画像とが得られ、奇数フィールドの画像と偶数フィールドの画像とが、瞳孔が比較的明るく写る顔画像(明瞳孔画像)及び瞳孔が比較的暗く写る顔画像(暗瞳孔画像)として、1/60秒の間隔で交互に撮影されることで生成される。ただし、ステレオカメラによる撮影のフレームレートは適宜設定されてよい。 The image pickup control unit 21 controls the image pickup by the target person detection optical system 3 and the object detection optical system 5 after the gaze point detection process for the target person Sp is started. At that time, as described in Patent No. 4500992, the image pickup control unit 21 has two types of emission wavelengths near red attached to the stereo camera according to the image pickup timing by the stereo camera of the subject detection optical system 3. Controls the lighting timing of the external light source. By controlling the image pickup control unit 21 in this way, in each camera constituting the stereo camera, as a one-frame face image obtained 30 images per second, an image of an odd field composed of odd-th horizontal pixel lines and an image of an odd field. , An even-field image composed of even-th horizontal pixel lines is obtained, and the odd-field image and the even-field image are a face image (bright pupil image) in which the pupil appears relatively bright and a relatively bright pupil. It is generated by alternately taking pictures at intervals of 1/60 second as a face image (dark pupil image) that appears dark. However, the frame rate for shooting with a stereo camera may be set as appropriate.

また、撮像制御部21は、対象者検出用光学系3の撮像の制御と同時に、対象物検出用光学系5の撮像を制御する。その際、撮像制御部21は、対象物検出用光学系5のステレオカメラによる撮像タイミングに応じて、ステレオカメラに取り付けられた近赤外光源の点灯タイミングを制御する。このような撮像制御部21の制御により、ステレオカメラを構成する各カメラにおいては、1秒間に30枚で同時に得られる1フレームの対象物画像が得られる。ここで、ステレオカメラによる撮影のフレームレートは適宜設定可能とされているが、対象者検出用光学系3によって得られる明瞳孔画像及び暗瞳孔画像の撮影のフレームレートと同一に設定されることが好ましい。なお、対象者Spが観察対象物Soを目視検査する際に観察対象物Soをテーブル7上で把持した際には、観察対象物Soの検査対象面Pの反対側の面P(図2の(b)部)が対象物検出用光学系5を向くため、対象物検出用光学系5によって撮影される対象物画像にはマーカM,M,Mの像が映ることになる。撮像制御部21は、マーカM,M,Mの像のブレを防止してマーカM,M,Mの画像上の位置を正確に検出させるためには、対象物検出用光学系5の各カメラの露光時間をできるだけ短く(例えば、500μ秒)に設定することが好ましい。また、マーカM,M,Mとしてコンピュータ9により点灯制御が可能なLED等の発光体を用いる場合は、撮像制御部21は、近赤外光源の点灯タイミングと同期させてマーカM,M,Mを点灯させるように制御することが好ましい。 Further, the image pickup control unit 21 controls the image pickup of the object detection optical system 5 at the same time as the control of the image pickup of the object detection optical system 3. At that time, the image pickup control unit 21 controls the lighting timing of the near-infrared light source attached to the stereo camera according to the image pickup timing by the stereo camera of the object detection optical system 5. By such control of the image pickup control unit 21, one frame of an object image that can be simultaneously obtained at 30 images per second can be obtained in each camera constituting the stereo camera. Here, although the frame rate for shooting with the stereo camera can be appropriately set, it may be set to be the same as the frame rate for shooting the bright pupil image and the dark pupil image obtained by the subject detection optical system 3. preferable. When the subject Sp grips the observation object So on the table 7 when visually inspecting the observation object So, the surface P 2 on the opposite side of the inspection target surface P 1 of the observation object So (FIG. Since (part (b) of 2) faces the object detection optical system 5, the images of the markers M A , MB, and MC are reflected in the object image captured by the object detection optical system 5. Become. The image pickup control unit 21 is for detecting an object in order to prevent blurring of the images of the markers MA , MB , and MC and to accurately detect the positions of the markers MA , MB , and MC on the image. It is preferable to set the exposure time of each camera of the optical system 5 as short as possible (for example, 500 μsec). Further, when a light emitting body such as an LED whose lighting can be controlled by the computer 9 is used as the markers MA , MB, and MC, the image pickup control unit 21 synchronizes with the lighting timing of the near - infrared light source, and the marker MA is used. , MB , and MC are preferably controlled to light up.

画像取得部23は、対象者検出用光学系3のステレオカメラ、及び対象物検出用光学系5のステレオカメラから、有線あるは無線のデータ転送インタフェースを介して、顔画像及び対象物画像をリアルタイムで取得する。そして、画像取得部23は、取得した顔画像を、その都度、視線算出部27に引き渡し、取得した対象物画像を、その都度、姿勢算出部25に引き渡す。 The image acquisition unit 23 transfers a face image and an object image in real time from the stereo camera of the object detection optical system 3 and the stereo camera of the object detection optical system 5 via a wired or wireless data transfer interface. Get it with. Then, the image acquisition unit 23 delivers the acquired face image to the line-of-sight calculation unit 27 each time, and delivers the acquired object image to the posture calculation unit 25 each time.

姿勢算出部25は、対象物検出用光学系5のステレオカメラによって同時に得られた一対の対象物画像を基に、観察対象物Soの配置角度及び位置(姿勢)を算出する。以下に姿勢算出部25の観察対象物Soの姿勢算出機能について説明する。姿勢算出部25は、下記の姿勢算出処理を連続的に得られる対象物画像のフレーム毎に連続して実行する。 The posture calculation unit 25 calculates the arrangement angle and position (posture) of the observation target So based on the pair of object images simultaneously obtained by the stereo camera of the object detection optical system 5. The posture calculation function of the observation object So of the posture calculation unit 25 will be described below. The posture calculation unit 25 continuously executes the following posture calculation processing for each frame of the continuously obtained object image.

姿勢算出部25は、一対の対象物画像のそれぞれから、画像上でのマーカの位置を検出する。すなわち、対象物画像を画素値の閾値を用いて二値化画像に変換し、二値化画像に対してラベリングを行った後、マーカM,M,Mの反射像らしい面積及び縦横比の像を探索することにより、ラベルの中からマーカの反射像の候補を選択する。このとき、姿勢算出部25は、マーカの反射像の候補を、マーカM,M,Mの形状(例えば、長方形)に対応した幾何学形状パターンマッチングにより選択することもでき、観察対象物Soの姿勢が回転して反射像の形状が変化する場合にも対応できるように、幾何学形状パターンマッチングを実行する。 The posture calculation unit 25 detects the position of the marker on the image from each of the pair of object images. That is, after converting the object image into a binarized image using the threshold value of the pixel value and labeling the binarized image, the area and the vertical and horizontal directions that are typical of the reflection images of the markers MA , MB , and MC. By searching for the ratio image, a candidate reflection image of the marker is selected from the labels. At this time, the attitude calculation unit 25 can also select a candidate for the reflection image of the marker by geometric shape pattern matching corresponding to the shapes (for example, rectangles ) of the markers M A , MB, and MC , and is an observation target. Geometric shape pattern matching is performed so that the posture of the object So can be rotated and the shape of the reflected image can be changed.

また、姿勢算出部25は、選択したマーカの候補の画像上の中心座標を、一対の対象物画像に関して取得し、一対の対象物画像上のマーカの候補の中心座標を対象に総当たりでステレオマッチングを行うことにより、予め規定された3次元座標系である世界座標系X-Y-Z(図1)におけるマーカの候補の3次元座標を特定する。さらに、姿勢算出部25は、特定したマーカの候補が4点以上である場合には、特定した4点以上のマーカ候補の3次元座標の中から、3点の真のマーカM,M,Mの3次元座標を絞り込む。このとき、姿勢算出部25は、予め補助記憶部103等のデータベース内に3点のマーカM,M,Mの位置関係を示すデータを記憶しておき、そのデータに対応するマーカの候補の3次元座標を、真のマーカの3次元座標として絞り込む。例えば、マーカMからマーカMに向かうベクトルVのデータと、マーカMからマーカMに向かうベクトルVのデータとを予め記録しておき、これらのベクトルV,Vに対応するマーカの候補の3次元座標を真のマーカM,M,Mのものとして選択することが行われる。これにより、近赤外光、あるいは検査環境に設けられた照明による光等の反射による画像ノイズとなり、観察対象物So上でマーカとして誤って認識された偽のマーカM(図2の(b)部参照)を、真のマーカから除外することができる。 Further, the attitude calculation unit 25 acquires the center coordinates on the image of the selected marker candidate with respect to the pair of object images, and stereos the center coordinates of the marker candidates on the pair of object images in a round-robin manner. By performing matching, the three-dimensional coordinates of the marker candidates in the world coordinate system XW - YW - ZW (FIG. 1), which is a predetermined three-dimensional coordinate system, are specified. Further, when the specified marker candidate has four or more points, the posture calculation unit 25 has three true markers M A , MB from the three-dimensional coordinates of the specified four or more marker candidates. , MC 3D coordinates are narrowed down. At this time, the attitude calculation unit 25 stores in advance data indicating the positional relationship of the three markers MA , MB , and MC in a database such as the auxiliary storage unit 103, and the marker corresponding to the data. The candidate 3D coordinates are narrowed down as the 3D coordinates of the true marker. For example, the data of the vector V A from the marker M A to the marker M B and the data of the vector V B from the marker M A to the marker M C are recorded in advance, and the data correspond to these vectors V A and V B. The three-dimensional coordinates of the candidate markers to be used are selected as those of the true markers M A , M B , and M C. This results in image noise due to reflection of near-infrared light or light from illumination provided in the inspection environment, and is a false marker MX that was mistakenly recognized as a marker on the observation object So ((b) in FIG. 2). ) Can be excluded from the true markers.

加えて、姿勢算出部25は、絞り込んだ3点のマーカM,M,Mの3次元座標を用いて、世界座標系X-Y-Zにおける観察対象物Soの姿勢として、世界座標系X-Y-Zにおける対象物座標系X-Y-Zの位置及び方向を算出する。すなわち、姿勢算出部25は、2点のマーカM,Mの3次元座標の中点を、対象物座標系X-Y-Zの中心の座標Oとして求め、3点のマーカM,M,Mを通る平面の法線ベクトルを、Z軸を規定する方向ベクトルとして求める。また、マーカMからマーカMに向かうベクトルVと、マーカMからマーカMに向かうベクトルVとを規定の比率でそれぞれ合成した互いに垂直な2つのベクトルを、X軸及びY軸を規定する方向ベクトルとして求める。そして、姿勢算出部25は、平面の法線ベクトル、及びX軸及びY軸を規定する方向ベクトルを基に、世界座標系X-Y-Zにおける観察対象物Soの平面を規定する対象物座標系X-Y-ZのY軸,X軸,Z軸周りの回転角度α、β、γをそれぞれ計算する。このようにして、姿勢算出部25は、中心座標O及び回転角度α、β、γを、観察対象物Soの姿勢を特定するパラメータとして計算する。 In addition, the attitude calculation unit 25 uses the three - dimensional coordinates of the narrowed - down three markers MA , MB, and MC as the attitude of the observation object So in the world coordinate system XW - YW - ZW . , The position and direction of the object coordinate system X h -Y h -Z h in the world coordinate system X W -Y W -Z W are calculated. That is, the attitude calculation unit 25 obtains the midpoint of the three - dimensional coordinates of the two markers M A and MC as the coordinates Oh of the center of the object coordinate system X h − Y h − Z h , and obtains the coordinates Oh of the three points. The normal vector of the plane passing through the markers M A , MB, and MC is obtained as a direction vector defining the Z h axis. Further, two vectors perpendicular to each other obtained by synthesizing the vector VA from the marker M A to the marker M B and the vector V B from the marker M A to the marker MC at a predetermined ratio are formed on the X h axis and the Y. Obtained as a direction vector that defines the h -axis. Then, the attitude calculation unit 25 determines the plane of the observation object So in the world coordinate system XW - YW - ZW based on the normal vector of the plane and the direction vector defining the Xh axis and the Yh axis. The rotation angles α, β, and γ around the YW axis, the XW axis, and the ZW axis of the specified object coordinate system X h - Y h -Z h are calculated, respectively. In this way, the posture calculation unit 25 calculates the center coordinates Oh and the rotation angles α, β, and γ as parameters for specifying the posture of the observation object So.

また、姿勢算出部25は、上述したマーカの候補の3次元座標を特定と同様にして、視線ベクトルの較正処理時に、世界座標系X-Y-Zにおける視標Mの3次元座標を特定する。 Further, the attitude calculation unit 25 identifies the three-dimensional coordinates of the marker candidates described above, and at the time of the calibration process of the line-of-sight vector, the three - dimensional of the optotype M1 in the world coordinate system XW- YW -ZW. Specify the coordinates.

視線算出部27は、対象者検出用光学系3のステレオカメラで得られたそれぞれの顔画像を対象にして、特許第4500992号に記載の手法と同様にして、対象者Spの視線の検出処理を実行する。このとき、視線算出部27は、対象者検出用光学系3によって連続的に得られる顔画像のフレーム毎に視線検出処理を実行する。 The line-of-sight calculation unit 27 targets each face image obtained by the stereo camera of the target person detection optical system 3, and detects the line-of-sight of the target person Sp in the same manner as the method described in Japanese Patent No. 4500992. To execute. At this time, the line-of-sight calculation unit 27 executes the line-of-sight detection process for each frame of the face image continuously obtained by the subject detection optical system 3.

詳細には、視線算出部27は、顔画像上で検出された瞳孔の位置を基に、ステレオマッチングを行うことにより、世界座標系X-Y-Zにおける瞳孔位置の3次元座標を計算する。このとき、視線算出部27は、ステレオカメラを構成する2つのカメラの顔画像を基にピンホールの位置から瞳孔に向かうベクトルを求め、それらの2つのベクトルの交点を求めることで、瞳孔位置の3次元座標を計算することができる。また、視線算出部27は、国際公開WO2015/190204号に記載の手法を用いて、2本のベクトルの最近点を瞳孔位置として検出することもできる。この場合には、誤差のため2つのベクトルの交点が存在しない場合にも瞳孔位置を求めることができる。 Specifically, the line-of-sight calculation unit 27 performs stereo matching based on the position of the pupil detected on the face image to obtain the three-dimensional coordinates of the pupil position in the world coordinate system XW - YW - ZW . calculate. At this time, the line-of-sight calculation unit 27 obtains a vector from the pinhole position toward the pupil based on the facial images of the two cameras constituting the stereo camera, and obtains the intersection of the two vectors to obtain the pupil position. Three-dimensional coordinates can be calculated. Further, the line-of-sight calculation unit 27 can also detect the latest points of the two vectors as the pupil positions by using the method described in International Publication WO2015 / 190204. In this case, the pupil position can be obtained even when the intersection of the two vectors does not exist due to an error.

さらに、視線算出部27は、顔画像を基に算出した瞳孔位置と、顔画像を基に検出した顔画像上の瞳孔及び角膜反射の位置を基に、特許第4500992号に記載の手法を用いて、対象者Spの視線ベクトルを算出する。ここで、視線とは、瞳孔と注視点とを結ぶ直線であり、視線ベクトルは、世界座標系X-Y-Zにおける視線の始点の位置及び視線の角度(方向)を表すデータである。 Further, the line-of-sight calculation unit 27 uses the method described in Patent No. 4500992 based on the pupil position calculated based on the face image and the positions of the pupil and the corneal reflex on the face image detected based on the face image. Then, the line-of-sight vector of the subject Sp is calculated. Here, the line of sight is a straight line connecting the pupil and the gazing point, and the line of sight vector is data representing the position of the start point of the line of sight and the angle (direction) of the line of sight in the world coordinate system XW - YW - ZW . be.

また、視線算出部27は、国際公開WO2012/020760に記載の手法を用いて、対象物画像によって検出された較正用の視標M(図2の(a)部)の3次元座標を利用して、予め、視線ベクトルの計算に用いる係数を較正する処理を行ってもよい。ただし、この較正処理は、毎回の視線検出処理時に実行される必要はなく、対象者Spが変わるタイミング毎、観察対象物Soの種類が変更されるタイミング毎に少なくとも1回実行されればよい。 Further, the line-of-sight calculation unit 27 uses the three-dimensional coordinates of the calibration optotype M1 (part ( a ) in FIG. 2) detected by the object image by using the method described in the international publication WO2012 / 020760. Then, a process of calibrating the coefficient used for calculating the line-of-sight vector may be performed in advance. However, this calibration process does not have to be executed at each time of the line-of-sight detection process, and may be executed at least once at every timing when the subject Sp changes and at every timing when the type of the observation object So changes.

例えば、観察対象物Soの代わりに、観察対象物Soと同等な大きさの小型液晶ディスプレイ等(後述する図8に示すような構成のディスプレイ装置)に、図4に示した表示態様で視標Mを表示させた状態で、対象者Spに小型液晶ディスプレイを把持させてもよい。つまり、小型液晶ディスプレイ上で、視標Mを最初に大きく出現させ、対象者Spにその視標Mの中心の小さな点に注目させた後に、所定時間(例えば、1秒程度)の間で視標Mを次第に小さく縮小させて表示させながら対象者Spに続けて視標Mの中心に注目させる。視線算出部27は、そのような状態において得られた顔画像を用いて、視線ベクトルの計算に用いる係数を較正する処理を実行する。この較正処理の後に対象者Spに観察対象物Soに持ち替えさせた状態で、視線算出部27は、対象者Spの視線ベクトルの算出処理を実行する。このように、対象者Spに観察対象物Soと同等な大きさの小型ディスプレイ上に表示された視標Mを注目させた状態で較正処理を実行することで、較正処理時において、視標Mから対象者Spの顔までの距離を観察対象物Soから顔までの距離と同等に設定することができ、注視点検出部29による注視点検出の精度を高くすることができる。 For example, instead of the observation object So, a small liquid crystal display or the like having the same size as the observation object So (a display device having a configuration as shown in FIG. 8 to be described later) is displayed in the display mode shown in FIG. The subject Sp may hold the small liquid crystal display while M 1 is displayed. That is, after the optotype M1 first appears large on the small liquid crystal display and the subject Sp focuses on a small point at the center of the optotype M1, for a predetermined time (for example, about 1 second). While gradually reducing the size of the optotype M 1 and displaying it, pay attention to the center of the optotype M 1 following the subject Sp. The line-of-sight calculation unit 27 uses the face image obtained in such a state to perform a process of calibrating the coefficient used for calculating the line-of-sight vector. After this calibration process, the line-of-sight calculation unit 27 executes the calculation process of the line-of-sight vector of the target person Sp in a state where the subject Sp is switched to the observation object So. In this way, by executing the calibration process with the target person Sp paying attention to the optotype M1 displayed on the small display having the same size as the observation object So, the optotype is displayed at the time of the calibration process. The distance from M1 to the face of the subject Sp can be set to be equal to the distance from the observation object So to the face, and the accuracy of the gaze point detection by the gaze point detection unit 29 can be improved.

注視点検出部29は、姿勢算出部25によって算出された観察対象物Soの姿勢のデータと、視線算出部によって算出された対象者Spの視線ベクトルとを用いて、観察対象物Soの検査対象面P上の対象者Spの注視点を検出する。そして、注視点検出部29は、検出した注視点のデータをディスプレイなどの出力装置106に視認可能に出力する。ここで、出力対象の注視点のデータは、対象物座標系X-Y-Zにおける注視点の座標のデータであってよい。また、注視点検出部29は、検出した注視点のデータを、補助記憶部103内のデータベースに記憶してもよい。 The gazing point detection unit 29 uses the posture data of the observation object So calculated by the posture calculation unit 25 and the line-of-sight vector of the subject Sp calculated by the line-of-sight calculation unit to inspect the observation object So. The gaze point of the subject Sp on the surface P1 is detected. Then, the gazing point detection unit 29 visually outputs the detected gazing point data to an output device 106 such as a display. Here, the gazing point data of the output target may be the gazing point coordinate data in the object coordinate system X h − Y h − Z h . Further, the gaze point detection unit 29 may store the detected gaze point data in the database in the auxiliary storage unit 103.

詳細には、注視点検出部29は、姿勢算出部25によって算出された対象物座標系X-Y-Zの位置及び方向を用いて、視線ベクトルを対象物座標系X-Y-Zにおけるベクトルに変換する。このベクトルの変換は、視線ベクトルを、対象物座標系X-Y-Zの世界座標系X-Y-Zに対する原点の移動状態(例えば、中心の座標O)及び軸周りの回転状態(例えば、回転角度α、β、γ)を用いて変換を行うことにより実現される。そして、注視点検出部29は、変換された視線ベクトルと、予め補助記憶部103内に記憶された対象物座標系X-Y-Zにおける検査対象面Pの形状及び位置を特定するための式とを基に、視線ベクトルと検査対象面Pの交点を求めることにより、対象者Spの検査対象面P上における注視点の3次元座標を検出する。 Specifically, the gazing point detection unit 29 uses the position and direction of the object coordinate system X h -Y h -Z h calculated by the attitude calculation unit 25 to obtain the line-of-sight vector in the object coordinate system X h -Y. Convert to a vector in h -Z h . In this vector transformation, the line-of-sight vector is moved from the origin to the world coordinate system XW - YW - ZW of the object coordinate system Xh - Yh - Zh (for example, the center coordinate Oh ) and the axis. It is realized by performing conversion using the surrounding rotation state (for example, rotation angles α, β, γ). Then, the gazing point detection unit 29 specifies the converted line-of - sight vector and the shape and position of the inspection target surface P1 in the object coordinate system Xh - Yh - Zh stored in advance in the auxiliary storage unit 103. By finding the intersection of the line - of-sight vector and the inspection target surface P1 based on the equation for performing, the three-dimensional coordinates of the gazing point on the inspection target surface P1 of the subject Sp are detected.

このとき、注視点検出部29は、次のようにして注視点を検出してもよい。すなわち、注視点検出部29は、対象物座標系X-Y-Zの位置及び方向と検査対象面Pの式とを基に、世界座標系X-Y-Zにおける検査対象面Pの式を計算する。この式の計算は、対象物座標系X-Y-Zの世界座標系X-Y-Zに対する原点の移動状態(例えば、中心の座標O)及び軸周りの回転状態(例えば、回転角度α、β、γ)を用いて、この移動状態及び回転状態に応じた座標変換を行うことにより実現される。そして、注視点検出部29は、世界座標系X-Y-Zにおける検査対象面Pの式と対象者Spの視線ベクトルとを用いて検査対象面Pと視線ベクトルとの交点を求めることにより、対象者Spの検査対象面P上における注視点の3次元座標を検出する。例えば、検査対象面Pが円柱形状を有する場合には、円柱形状を表す式を座標変換した式を用いて注視点を検出することができる。さらに、世界座標系X-Y-Zにおける注視点の3次元座標を対象物座標系X-Y-Zにおける3次元座標に変換する。 At this time, the gazing point detection unit 29 may detect the gazing point as follows. That is, the gazing point detection unit 29 is in the world coordinate system XW - YW - ZW based on the position and direction of the object coordinate system Xh - Yh - Zh and the equation of the inspection target surface P1. Calculate the formula for the surface to be inspected P1. The calculation of this equation is based on the movement state of the origin with respect to the world coordinate system XW - YW - ZW of the object coordinate system Xh - Yh - Zh (for example, the center coordinate Oh ) and the rotation state around the axis. (For example, rotation angles α, β, γ) are used to perform coordinate transformation according to the moving state and the rotating state. Then, the gazing point detection unit 29 uses the equation of the inspection target surface P1 in the world coordinate system XW - YW - ZW and the line - of-sight vector of the subject Sp to be the intersection of the inspection target surface P1 and the line-of - sight vector. By obtaining, the three-dimensional coordinates of the gazing point on the inspection target surface P1 of the subject Sp are detected. For example, when the surface P1 to be inspected has a cylindrical shape, the gazing point can be detected by using an equation obtained by transforming the equation representing the cylindrical shape into coordinates. Further, the three-dimensional coordinates of the gazing point in the world coordinate system XW - YW - ZW are converted into the three-dimensional coordinates in the object coordinate system Xh - Yh - Zh .

ここで、検査対象面Pが凹凸面を有する不規則な面形状の場合には、メッシュ状に区切った面毎に平面形状あるいは曲面形状(例えば、球面形状)で近似した式が予め補助記憶部103内に記憶されていてもよい。この場合、注視点検出部29は、メッシュ状に区切った面毎に検査対象面Pの式を求め、区切った複数の面の中から視線ベクトルと交点を有する面を探索し、探索した面と視線ベクトルとの交点を注視点として計算する。このとき、注視点検出部29は、視線ベクトルを視点から先端に向かう方向に一定距離間隔で延ばしていきながら、その先端の座標と複数の面との間の距離を算出し、距離が閾値以下となった面を探索することができる。 Here, in the case where the inspection target surface P 1 has an irregular surface shape having an uneven surface, an equation approximated by a planar shape or a curved surface shape (for example, a spherical shape) for each surface divided into a mesh shape is stored in advance. It may be stored in the unit 103. In this case, the gazing point detection unit 29 obtains the equation of the inspection target surface P1 for each surface divided into a mesh shape, searches for a surface having an intersection with the line-of-sight vector from the divided plurality of surfaces, and searches for the surface. Calculate using the intersection of the line-of-sight vector and the gaze point as the gaze point. At this time, the gazing point detection unit 29 calculates the distance between the coordinates of the tip and the plurality of faces while extending the line-of-sight vector in the direction from the viewpoint toward the tip at regular distance intervals, and the distance is equal to or less than the threshold value. You can search for the surface that became.

次に、上述した画像処理システム1における注視点検出処理の手順を説明するとともに、本実施形態に係る画像処理方法について詳述する。図7は、画像処理システム1による注視点検出処理の手順を示すフローチャートである。 Next, the procedure of the gaze point detection process in the image processing system 1 described above will be described, and the image processing method according to the present embodiment will be described in detail. FIG. 7 is a flowchart showing the procedure of the gaze point detection process by the image processing system 1.

まず、コンピュータ9において外部から指示入力が受け付けられたことを契機に、注視点検出処理が開始され、コンピュータ9の撮像制御部21により、対象者検出用光学系3による対象者Spの撮像の制御と、対象物検出用光学系5による観察対象物Soの撮像の制御とが開始される(ステップS1)。これに応じて、コンピュータ9の画像取得部23によって、連続して1フレーム毎に顔画像及び対象物画像が取得される(ステップS2)。 First, when the computer 9 receives an instruction input from the outside, the gaze point detection process is started, and the image pickup control unit 21 of the computer 9 controls the image pickup of the target person Sp by the target person detection optical system 3. And the control of the image pickup of the observation object So by the object detection optical system 5 is started (step S1). In response to this, the image acquisition unit 23 of the computer 9 continuously acquires a face image and an object image for each frame (step S2).

その後、コンピュータ9の姿勢算出部25によって、1フレーム毎の対象物画像を対象に姿勢算出処理が実行されることにより、観察対象物Soの姿勢を表すデータとして、対象物座標系X-Y-Zの移動状態及び回転状態を示すデータが算出される(ステップS3)。それとともに、コンピュータ9の視線算出部27により、1フレーム毎の顔画像を対象に視線検出処理が実行され、対象者Spの視線ベクトルが算出される(ステップS4)。 After that, the posture calculation unit 25 of the computer 9 executes the posture calculation process for the object image for each frame, and as data representing the posture of the observation target So, the object coordinate system Xh -Y Data indicating the moving state and the rotating state of h —Z h are calculated (step S3). At the same time, the line-of-sight calculation unit 27 of the computer 9 executes the line-of-sight detection process on the face image for each frame, and calculates the line-of-sight vector of the target person Sp (step S4).

次に、コンピュータ9の注視点検出部29により、対象物座標系X-Y-Zの移動状態及び回転状態を示すデータを用いて、世界座標系X-Y-Zにおける観察対象物Soの検査対象面Pの式が計算される(ステップS5)。そして、注視点検出部29により、対象者Spの視線ベクトルと検査対象面Pとの間の交点が求められることにより、検査対象面P上における対象者Spの注視点の3次元座標が検出される(ステップ6)。上記のステップS3~S6までの処理は、対象者検出用光学系3及び対象物検出用光学系5において同じタイミングで撮像されて取得された顔画像及び対象物画像のフレーム毎に繰り返される(ステップS7)。最後に、注視点検出部29により、顔画像及び対象物画像のフレーム毎に連続して検出された注視点の3次元座標を示すデータが、出力装置106に出力される(ステップS8)。このとき、例えば、観察対象物Soの画像上に対象者Spの注視点を示すマーカが重畳された画像が出力されてよい。また、この際には、注視点の3次元座標を示すデータが、観察対象物Soの姿勢を表すデータとともに補助記憶部103内のデータベースに記録されてもよい。 Next, in the world coordinate system XW - YW - ZW , the gazing point detection unit 29 of the computer 9 uses data indicating the moving state and the rotating state of the object coordinate system Xh - Yh - Zh . The formula of the inspection target surface P1 of the observation target So is calculated (step S5). Then, the gazing point detection unit 29 obtains the intersection between the line-of-sight vector of the subject Sp and the inspection target surface P 1 , so that the three-dimensional coordinates of the gazing point of the subject Sp on the inspection target surface P 1 can be obtained. Detected (step 6). The above processes from steps S3 to S6 are repeated for each frame of the face image and the object image captured and acquired at the same timing in the object detection optical system 3 and the object detection optical system 5 (step). S7). Finally, the gazing point detection unit 29 outputs data indicating the three-dimensional coordinates of the gazing point continuously detected for each frame of the face image and the object image to the output device 106 (step S8). At this time, for example, an image in which a marker indicating the gazing point of the subject Sp is superimposed on the image of the observation object So may be output. Further, at this time, the data indicating the three-dimensional coordinates of the gazing point may be recorded in the database in the auxiliary storage unit 103 together with the data indicating the posture of the observation object So.

以上説明した本実施形態に係る画像処理システム1によれば、対象者Spの顔画像が取得されるとともに観察対象物Soの画像である対象物画像が取得される。そして、対象物画像から検出された観察対象物So上の3点のマーカM,M,Mの三次元位置を用いて、観察対象物Soの配置角度及び位置が算出され、顔画像から対象者Spの視線の角度及び位置が算出され、それらを基に観察対象物Soの検査対象面P上の対象者Spの注視点の位置が検出される。これにより、観察対象物Soの目視検査を行う場合等で観察対象物Soの位置及び角度が変化する時でも観察対象物Soに対する対象者Spの注視点を精度よく検出することができる。 According to the image processing system 1 according to the present embodiment described above, the face image of the subject Sp is acquired and the object image which is the image of the observation object So is acquired. Then, the arrangement angle and position of the observation object So are calculated using the three - dimensional positions of the three markers MA , MB, and MC on the observation object So detected from the object image, and the face image is obtained. The angle and position of the line of sight of the subject Sp are calculated from the above, and based on these, the position of the gazing point of the subject Sp on the inspection target surface P1 of the observation target So is detected. This makes it possible to accurately detect the gazing point of the subject Sp with respect to the observation object So even when the position and angle of the observation object So change, such as when visually inspecting the observation object So.

ここで、画像処理システム1には、対象者検出用光学系3と、対象物検出用光学系5とを一体的に支持する支持部材11がさらに備えられている。かかる構成においては、対象者検出用光学系3を用いて検出される対象者Spの視線ベクトルと、対象物検出用光学系5を用いて検出される観察対象物Soの配置との関係を安定化させることができ、観察対象物Soに対する対象者Spの注視点の位置を正確に検出することができる。 Here, the image processing system 1 is further provided with a support member 11 that integrally supports the object detection optical system 3 and the object detection optical system 5. In such a configuration, the relationship between the line-of-sight vector of the subject Sp detected by using the subject detection optical system 3 and the arrangement of the observation object So detected by using the object detection optical system 5 is stable. It is possible to accurately detect the position of the gazing point of the subject Sp with respect to the observation object So.

また、画像処理システム1は、支持部材11に支持され、対象者Spが観察対象物Soを把持する際の基準となるテーブル7をさらに備えている。この場合、対象物検出用光学系5対する観察対象物Soの位置が安定化されるため、観察対象物Soの配置角度及び位置を確実に検出できる。その結果、観察対象物Soに対する対象者Spの注視点の位置をより確実に検出することができる。 Further, the image processing system 1 is further provided with a table 7 which is supported by the support member 11 and serves as a reference when the subject Sp grips the observation object So. In this case, since the position of the observation object So with respect to the object detection optical system 5 is stabilized, the arrangement angle and position of the observation object So can be reliably detected. As a result, the position of the gazing point of the subject Sp with respect to the observation object So can be detected more reliably.

また、コンピュータ9は、観察対象物Soの配置角度及び位置を基に、三次元座標系における検査対象面Pの式を求め、この式と視線ベクトルとを基に、注視点の位置を計算している。こうすれば、観察対象物Soの検査対象面Pの配置を式によって特定できるので、観察対象物Soの検査対象面P上における対象者Spの注視点の位置を高精度に算出することができる。 Further, the computer 9 obtains an equation of the inspection target surface P1 in the three-dimensional coordinate system based on the arrangement angle and position of the observation object So, and calculates the position of the gazing point based on this equation and the line-of-sight vector. is doing. By doing so, since the arrangement of the inspection target surface P1 of the observation target So can be specified by the formula, the position of the gazing point of the subject Sp on the inspection target surface P1 of the observation object So can be calculated with high accuracy. Can be done.

また、コンピュータ9は、観察対象物Soの配置角度及び位置を基に、検査対象面Pを複数に区切った面毎に式を求め、複数の面の式を用いて、複数の面の中から視線ベクトルと交点を有する面を探索し、探索した当該面と視線ベクトルとの交点を注視点の位置として求めている。このような構成によれば、形状が複雑な観察対象物Soを対象にした場合であっても、観察対象物Soの検査対象面Pの配置を、複数に区切った面毎に式によって特定できるので、観察対象物Soの検査対象面Pにおける対象者Spの注視点の位置を高精度に算出することができる。 Further, the computer 9 obtains a formula for each of the planes P1 to be inspected divided into a plurality of planes based on the arrangement angle and the position of the observation target surface So, and uses the formulas of the plurality of planes in the plurality of planes. A surface having an intersection with the line-of-sight vector is searched for, and the intersection of the searched surface and the line-of-sight vector is obtained as the position of the gazing point. According to such a configuration, even when the observation object So having a complicated shape is targeted, the arrangement of the inspection target surface P1 of the observation object So is specified by an equation for each of the plurality of divided surfaces. Therefore, the position of the gazing point of the subject Sp on the inspection target surface P1 of the observation target So can be calculated with high accuracy.

また、コンピュータ9は、予め3点の真のマーカM,M,Mの位置関係を記憶し、特定した4点以上のマーカの候補の3次元座標の中から、3点の真のマーカM,M,Mの3次元座標に絞り込み、絞り込んだ3点の真のマーカM,M,Mの3次元座標を基に観察対象物Soの配置角度及び位置を算出している。この場合、対象物画像から偽のマーカを含む4点以上のマーカが検出されたときにそれらのマーカの中から真のマーカM,M,Mに絞り込むことができる。その結果、観察対象物Soの配置を誤りなく検出でき、観察対象物Soの検査対象面Pにおける対象者Spの注視点の位置を誤りなく検出することができる。 Further, the computer 9 stores the positional relationship of the three true markers MA , MB, and MC in advance, and among the three - dimensional coordinates of the specified four or more marker candidates, the three true markers are true. The placement angle and position of the observation target So are calculated based on the 3D coordinates of the markers MA , MB , and MC , and the true 3D coordinates of the narrowed down 3 points. is doing. In this case, when four or more markers including false markers are detected in the object image, the true markers M A , M B , and MC can be narrowed down from those markers. As a result, the arrangement of the observation target So can be detected without error, and the position of the gazing point of the subject Sp on the inspection target surface P1 of the observation target So can be detected without error.

本発明は、上述した実施形態に限定されるものではない。 The present invention is not limited to the above-described embodiment.

例えば、観察対象物Soの検査対象面P上には、観察対象物Soの姿勢検出用のマーカが4点以上で付されていてもよい。その際には、コンピュータ9の姿勢算出部25は、4点以上のマーカの3次元座標を特定し、それらの3次元座標を用いて観察対象物Soの姿勢を算出する。例えば、4点のマーカの3次元座標を用いる場合には、姿勢算出部25は、4点のマーカの重心を対象物座標系X-Y-Zの中心の座標Oとして求め、4点のマーカの3次元座標から最小二乗法を用いて平面の式を算出し、算出した平面の式から決定される法線ベクトルを、Z軸を規定する方向ベクトルとして求める。また、真のマーカが4点である場合には、姿勢算出部25は、上述した実施形態と同様にして、5点以上のマーカ候補の3次元座標の中から、4点の真のマーカの3次元座標を絞り込む。 For example, on the inspection target surface P1 of the observation target So, four or more markers for detecting the posture of the observation target So may be attached. At that time, the posture calculation unit 25 of the computer 9 specifies the three-dimensional coordinates of the four or more markers, and calculates the posture of the observation object So using those three-dimensional coordinates. For example, when using the three-dimensional coordinates of the four-point marker, the attitude calculation unit 25 obtains the center of gravity of the four-point marker as the coordinates Oh of the center of the object coordinate system X h − Y h − Z h . A plane formula is calculated from the three-dimensional coordinates of the four marker using the minimum square method, and the normal vector determined from the calculated plane formula is obtained as a direction vector defining the Z h axis. Further, when the number of true markers is four, the posture calculation unit 25 selects the four true markers from the three-dimensional coordinates of the five or more marker candidates in the same manner as in the above-described embodiment. Narrow down the 3D coordinates.

また、観察対象物Soの検査対象面P上に付される観察対象物Soの姿勢検出用のマーカの形態としては、QRコード(登録商標)、あるいは、それを簡略化したコードを含むような、画像処理によって識別可能なパターンを有するものであってよい。さらに、同一の観察対象物Soの検査対象面P上に付される複数のマーカは、互いに異なるパターンを有するものであってもよい。この場合は、コンピュータ9の姿勢算出部25は、簡易な画像処理により、検査対象面P上の複数のマーカの反射像の位置を、それぞれを識別可能な状態で検出することができる。その結果、真のマーカの3次元座標を絞り込む処理の処理時間を短縮化することができる。 Further, the form of the marker for detecting the posture of the observation object So attached on the inspection target surface P1 of the observation object So includes a QR code (registered trademark) or a simplified code thereof. It may have a pattern that can be identified by image processing. Further, the plurality of markers attached to the inspection target surface P1 of the same observation target So may have different patterns from each other. In this case, the posture calculation unit 25 of the computer 9 can detect the positions of the reflected images of the plurality of markers on the inspection target surface P1 in a state in which each of them can be identified by simple image processing. As a result, it is possible to shorten the processing time of the process of narrowing down the three-dimensional coordinates of the true marker.

一方で、他の変形例では、観察対象物Soの検査対象面P上に観察対象物Soの姿勢検出用の1点のマーカが付されていてもよい。例えば、図3の(a)部に示すような形態のマーカであって、内側の白色の長方形の形状において4隅の角の形状がそれぞれ異なるようなマーカが1点で付されてもよい。このような形態のマーカとしては、例えば、4隅の角の欠け方が各々異なっている形態が例示される。コンピュータ9の姿勢算出部25は、対象物画像において1点のマーカの4隅の位置をそれらの形状の違いによって識別することができる。例えば、形状を表すテンプレートを回転させてそのテンプレートと対象物画像とを照合することによって識別できる。その結果、姿勢算出部25は、1点のマーカの4隅の3次元座標を検出することができ、それらの検出結果を利用して観察対象物Soの姿勢を算出することができる。 On the other hand, in another modification, a marker for detecting the posture of the observation target So may be attached on the inspection target surface P1 of the observation target So. For example, a marker having the form shown in the part (a) of FIG. 3 and having different shapes of the corners at the four corners in the shape of the inner white rectangle may be attached at one point. As the marker of such a form, for example, a form in which the corners of the four corners are chipped differently is exemplified. The posture calculation unit 25 of the computer 9 can identify the positions of the four corners of one marker in the object image by the difference in their shapes. For example, it can be identified by rotating a template representing a shape and collating the template with an object image. As a result, the posture calculation unit 25 can detect the three-dimensional coordinates of the four corners of the marker at one point, and can calculate the posture of the observation target So by using the detection results.

さらに言えば、特別なマーカを用意して観察対象物Soに付与することなく、観察対象物Soにもともと存在する3ヵ所以上の特徴点あるいは一つの特徴的形状の部分が、マーカとして利用されてもよい。この場合、姿勢算出部25は、特徴点あるいは特徴的形状部分を、対象物画像を対象にした画像処理によってマーカとして特定する。 Furthermore, without preparing a special marker and attaching it to the observation object So, three or more feature points or one characteristic shape portion originally existing in the observation object So can be used as a marker. May be good. In this case, the posture calculation unit 25 identifies the feature point or the characteristic shape portion as a marker by image processing for the object image.

また、画像処理システム1による撮像対象の観察対象物Soとしては、図8に示すような液晶ディスプレイ、タブレット端末、小型ゲーム機器等の平板状のディスプレイ装置を対象としてもよい。この場合、例えば、ディスプレイに表示される画像のどの部分に視線を向けているかが検出でき、その検出結果に応じて、次の処理内容や画像表示に反映させてもよい。本変形例においては、画像処理システム1による撮像時に、観察対象物Soの表示面である検査対象面P上に較正用の視標Mを動的に表示させるようにしてもよい。このような視標Mの顔画像上の位置を利用することによっても、視線ベクトルの計算に用いる係数を予め較正することができる。ただし、この係数の較正を正確に行うためには、対象者Spに視標Mの中心に向けて正しく視線を合わせてもらう必要がある。そのため、正確な較正を実現するために、図4に示したように、視標Mを大きなサイズから小さなサイズに動的に変化させるように表示させることが好ましい。このように表示させることによって、対象者Spは集中力を高めることができ、その結果、視標Mの中心の小領域に両眼の視線を容易に合わせることができる。その結果、正確な視線ベクトルの較正を実現することができる。 Further, as the observation target So to be imaged by the image processing system 1, a flat plate-shaped display device such as a liquid crystal display, a tablet terminal, or a small game device as shown in FIG. 8 may be targeted. In this case, for example, it is possible to detect which part of the image displayed on the display the line of sight is directed to, and this may be reflected in the next processing content or image display depending on the detection result. In this modification, the optotype M1 for calibration may be dynamically displayed on the inspection target surface P1, which is the display surface of the observation target So, at the time of imaging by the image processing system 1 . By using the position of the optotype M 1 on the face image, the coefficient used for calculating the line-of-sight vector can be calibrated in advance. However, in order to calibrate this coefficient accurately, it is necessary to have the subject Sp correctly align the line of sight toward the center of the optotype M1. Therefore, in order to realize accurate calibration, it is preferable to display the optotype M1 so as to dynamically change from a large size to a small size, as shown in FIG. By displaying in this way, the subject Sp can improve his / her concentration, and as a result, the line of sight of both eyes can be easily aligned with the small area at the center of the optotype M1. As a result, accurate line-of-sight vector calibration can be realized.

また、対象者検出用光学系3あるいは対象物検出用光学系5は、ステレオカメラで構成されることには限定されず、1台のカメラで構成されていてもよい。あるいは、対象者検出用光学系3及び対象物検出用光学系5は、高性能(高解像度、高速、広視野等)の光学系を含む1台のカメラで構成されて、対象者Spと観察対象物Soの位置関係に対応して、1台のカメラによって対象者Sp及び観察対象物Soを同時撮影可能に構成されていてもよい。このような光学系を含む画像処理システム1によれば、観察対象物Soの姿勢及び対象者Spの視線方向を同時検出することができる。 Further, the target person detection optical system 3 or the object detection optical system 5 is not limited to being composed of a stereo camera, and may be composed of one camera. Alternatively, the target person detection optical system 3 and the target object detection optical system 5 are composed of one camera including a high-performance (high resolution, high speed, wide field of view, etc.) optical system, and are observed with the target person Sp. Corresponding to the positional relationship of the object So, the subject Sp and the observation object So may be configured to be capable of simultaneous imaging by one camera. According to the image processing system 1 including such an optical system, it is possible to simultaneously detect the posture of the observation object So and the line-of-sight direction of the subject Sp.

また、画像処理システム1の観察対象のマーカは、直接、観察対象物So上に付されていることには限定されない。例えば、電子基板などが観察対象物Soである場合、それを保持する治具を用意して、その治具の裏面に複数のマーカを付するようにしてもよい。 Further, the marker of the observation target of the image processing system 1 is not limited to being directly attached to the observation target So. For example, when the electronic substrate or the like is an observation object So, a jig for holding the jig may be prepared and a plurality of markers may be attached to the back surface of the jig.

また、画像処理システム1の観察対象のマーカは、立体的な形状の観察対象物Soに4点以上で付与されたマーカであってもよい。この場合、例えば、対象者Spによる目視検査時の回転操作によって、1点のマーカが隠れたり、対象物検出用光学系5の視野から1点のマーカが外れたりしても、残った3点のマーカの3次元位置を検出することができる。 Further, the marker to be observed in the image processing system 1 may be a marker given to the observation object So having a three-dimensional shape with four or more points. In this case, for example, even if one marker is hidden by the rotation operation during the visual inspection by the subject Sp, or one marker is removed from the field of view of the object detection optical system 5, the remaining three points are left. The three-dimensional position of the marker can be detected.

また、画像処理システム1は、図1に示した要素以外に、対象者検出用光学系3、対象物検出用光学系5、及び、コンピュータ9を収納する筐体(ケース)を備えてもよい。この場合、筐体における対象者検出用光学系3の上部は、ガラス等の少なくとも光源に使用した波長帯において光透過性のある部材によって構成される。これにより、対象者検出用光学系3のカメラを保護(カバー)しつつ、そのカメラによる対象者Spの撮像を可能にする。 In addition to the elements shown in FIG. 1, the image processing system 1 may include an optical system for detecting an object, an optical system for detecting an object 5, and a housing (case) for accommodating a computer 9. .. In this case, the upper portion of the subject detection optical system 3 in the housing is composed of a member having light transmission at least in the wavelength band used for the light source such as glass. This protects (covers) the camera of the target person detection optical system 3 and enables the camera to capture the target person Sp.

また、図1に示す構成では、支持部材11が、テーブル7、対象者検出用光学系3、及び対象物検出用光学系5を一体的に支持しているが、テーブル7の天板部7aを対象物検出用光学系5側に延ばした形状とし、天板部7aによって対象物検出用光学系5を支持し、天板部7aの対象者Sp側の下部の適切な位置に、別のテーブルあるいは筐体を一体的に設けて、そのテーブルあるいは筐体に対象者検出用光学系3を固定してもよい。すなわち、支持部材11の役割を、テーブル7自体あるいはテーブル7に一体的に設けられた部材に担わせてもよい。 Further, in the configuration shown in FIG. 1, the support member 11 integrally supports the table 7, the object detection optical system 3, and the object detection optical system 5, but the top plate portion 7a of the table 7 is integrally supported. Is shaped to extend to the object detection optical system 5 side, the object detection optical system 5 is supported by the top plate portion 7a, and another is placed at an appropriate position in the lower part of the top plate portion 7a on the target person Sp side. A table or a housing may be integrally provided, and the subject detection optical system 3 may be fixed to the table or the housing. That is, the role of the support member 11 may be played by the table 7 itself or a member integrally provided on the table 7.

また、画像処理システム1においては、テーブル7が省かれていてもよい。 Further, in the image processing system 1, the table 7 may be omitted.

1…画像処理システム、3…対象者検出用光学系、5…対象物検出用光学系、7…テーブル(平板部材)、9…コンピュータ(算出部)、11…支持部材、M,M,M…マーカ、P…検査対象面(特定の面)、So…観察対象物、Sp…対象者。 1 ... Image processing system, 3 ... Optical system for object detection, 5 ... Optical system for object detection, 7 ... Table (flat plate member), 9 ... Computer (calculation unit), 11 ... Support member, MA , MB , MC ... Marker, P 1 ... Inspection target surface (specific surface), So ... Observation target, Sp ... Subject.

Claims (9)

対象者の顔を撮像するカメラを含み、前記対象者の視線の角度及び位置の検出に必要な顔画像を取得するための対象者検出用光学系と、
前記対象者の観察対象の観察対象物を撮像するカメラを含み、前記観察対象物の配置角度及び位置の検出に必要な対象物画像を取得するための対象物検出用光学系と、
前記顔画像及び対象物画像を対象に画像処理を実行する算出部と、を備え、
前記算出部は、
前記対象物画像を基に、前記観察対象物上のマーカの三次元位置を特定し、前記マーカの三次元位置を基に、前記観察対象物の配置角度及び位置を算出し、
前記顔画像を基に前記対象者の視線の角度及び位置を算出し、前記視線の角度及び位置と、前記観察対象物の配置角度及び位置とを基に、前記観察対象物上の特定の面における前記対象者の注視点を検出する、
画像処理システム。
An optical system for detecting a subject, including a camera that captures the face of the subject, and an optical system for detecting the subject, for acquiring a facial image necessary for detecting the angle and position of the line of sight of the subject.
An object detection optical system for acquiring an object image necessary for detecting the arrangement angle and position of the observation object, including a camera that captures the observation object of the observation object of the subject.
A calculation unit that executes image processing on the face image and the object image is provided.
The calculation unit
The three-dimensional position of the marker on the observation object is specified based on the object image, and the arrangement angle and position of the observation object are calculated based on the three-dimensional position of the marker.
The angle and position of the line of sight of the subject are calculated based on the face image, and the specific surface on the object to be observed is based on the angle and position of the line of sight and the arrangement angle and position of the object to be observed. Detects the gaze point of the subject in
Image processing system.
前記算出部は、前記観察対象物上の3点以上のマーカの三次元位置を特定し、前記3点以上のマーカの三次元位置を基に、前記観察対象物の配置角度及び位置を算出する、
請求項1記載の画像処理システム。
The calculation unit identifies the three-dimensional positions of three or more markers on the observation object, and calculates the arrangement angle and position of the observation object based on the three-dimensional positions of the three or more markers. ,
The image processing system according to claim 1.
前記対象者検出用光学系と、前記対象物検出用光学系とを一体的に支持する支持部材をさらに備える、
請求項1又は2に記載の画像処理システム。
Further, a support member for integrally supporting the object detection optical system and the object detection optical system is provided.
The image processing system according to claim 1 or 2.
前記支持部材に支持され、前記対象者が前記観察対象物を把持する際の基準となる平板部材をさらに備える、
請求項3に記載の画像処理システム。
A flat plate member supported by the support member and used as a reference when the subject grips the observation object is further provided.
The image processing system according to claim 3.
前記算出部は、前記観察対象物の配置角度及び位置を基に、三次元座標系における前記特定の面の式を求め、前記式と前記視線を表すベクトルとを基に、前記注視点を計算する、
請求項1~4のいずれか1項に記載の画像処理システム。
The calculation unit obtains an equation for the specific surface in the three-dimensional coordinate system based on the arrangement angle and position of the observation object, and calculates the gazing point based on the equation and the vector representing the line of sight. do,
The image processing system according to any one of claims 1 to 4.
前記算出部は、前記観察対象物の配置角度及び位置を基に、前記特定の面を複数に区切った面毎に式を求め、複数の前記面の式を用いて、複数の前記面の中から前記ベクトルと交点を有する面を探索し、探索した当該面と前記ベクトルとの交点を前記注視点として求める、
請求項5に記載の画像処理システム。
Based on the arrangement angle and position of the observation object, the calculation unit obtains an equation for each of the surfaces in which the specific surface is divided into a plurality of surfaces, and uses the equations of the plurality of the surfaces in the plurality of the surfaces. Searches for a surface having an intersection with the vector, and obtains the intersection of the searched surface with the vector as the gazing point.
The image processing system according to claim 5.
前記算出部は、予め複数の真のマーカの位置関係を記憶し、特定した複数のマーカの候補の三次元位置の中から、前記複数の真のマーカの三次元位置に絞り込み、絞り込んだ前記複数の真のマーカの三次元位置を基に前記観察対象物の配置角度及び位置を算出する、
請求項1~6のいずれか1項に記載の画像処理システム。
The calculation unit stores the positional relationship of a plurality of true markers in advance, narrows down the three-dimensional positions of the specified plurality of marker candidates to the three-dimensional positions of the plurality of true markers, and narrows down the plurality of positions. The placement angle and position of the observation object are calculated based on the three-dimensional position of the true marker of.
The image processing system according to any one of claims 1 to 6.
前記算出部は、予め対象物検出用光学系によって得られた画像を基に、較正用視標の三次元位置を特定し、前記較正用視標の三次元位置を基に、前記顔画像を基に前記視線の角度及び位置を算出するための較正処理を予め実行する、
請求項1~6のいずれか1項に記載の画像処理システム。
The calculation unit identifies the three-dimensional position of the calibration optotype based on the image obtained in advance by the object detection optical system, and creates the face image based on the three-dimensional position of the calibration optotype. Based on this, a calibration process for calculating the angle and position of the line of sight is executed in advance.
The image processing system according to any one of claims 1 to 6.
画像処理システムが実行する画像処理方法であって、
対象者の顔を撮像して、前記対象者の視線の角度及び位置の検出に必要な顔画像を取得するステップと、
前記対象者の観察対象の観察対象物を撮像して、前記観察対象物の配置角度及び位置の検出に必要な対象物画像を取得するステップと、
前記顔画像及び対象物画像を対象に画像処理を実行するステップと、を備え、
前記画像処理を実行するステップでは、
前記対象物画像を基に、前記観察対象物上のマーカの三次元位置を特定し、前記マーカの三次元位置を基に、前記観察対象物の配置角度及び位置を算出し、
前記顔画像を基に前記対象者の視線の角度及び位置を算出し、前記視線の角度及び位置と、前記観察対象物の配置角度及び位置とを基に、観察対象物上の特定の面における前記対象者の注視点を検出する、
画像処理方法。
An image processing method executed by an image processing system.
A step of taking an image of the subject's face and acquiring a facial image necessary for detecting the angle and position of the subject's line of sight.
A step of capturing an observation object of the observation target of the subject and acquiring an object image necessary for detecting the arrangement angle and position of the observation object, and
A step of executing image processing on the face image and the object image is provided.
In the step of executing the image processing,
The three-dimensional position of the marker on the observation object is specified based on the object image, and the arrangement angle and position of the observation object are calculated based on the three-dimensional position of the marker.
The angle and position of the line of sight of the subject are calculated based on the face image, and the angle and position of the line of sight and the arrangement angle and position of the object to be observed are used on a specific surface of the object to be observed. Detecting the gaze point of the subject,
Image processing method.
JP2020193753A 2020-11-20 2020-11-20 Image processing system and image processing method Pending JP2022082280A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020193753A JP2022082280A (en) 2020-11-20 2020-11-20 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020193753A JP2022082280A (en) 2020-11-20 2020-11-20 Image processing system and image processing method

Publications (1)

Publication Number Publication Date
JP2022082280A true JP2022082280A (en) 2022-06-01

Family

ID=81810759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020193753A Pending JP2022082280A (en) 2020-11-20 2020-11-20 Image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP2022082280A (en)

Similar Documents

Publication Publication Date Title
JP6523925B2 (en) Authentication apparatus using biometric information and authentication method
US9432655B2 (en) Three-dimensional scanner based on contours from shadow images
WO2018030515A1 (en) Line-of-sight detection device
CN110967166B (en) Detection method, detection device and detection system of near-eye display optical system
US11710289B2 (en) Information processing apparatus, information processing system, and material identification method
US20150029322A1 (en) Method and computations for calculating an optical axis vector of an imaged eye
JPH10326148A (en) Hand pointing device
US9107613B2 (en) Handheld scanning device
WO2019003383A1 (en) Information processing device and method for specifying quality of material
KR20110094037A (en) Video infrared retinal image scanner
US20220148218A1 (en) System and method for eye tracking
JP2012216180A (en) Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction
JP2018099174A (en) Pupil detector and pupil detection method
CN108154126A (en) Iris imaging system and method
JPH1163927A (en) Head position and posture measuring device, and operation monitoring device
JP2016099759A (en) Face detection method, face detection device, and face detection program
JP2007155357A (en) Diameter measuring method or diameter measuring device
JP2001148025A (en) Device and method for detecting position, and device and method for detecting plane posture
JP2003269913A (en) Device and method for calibrating sensor, program, and storage medium
JP2002000567A (en) Method of measuring pupil center position and method of detecting view point position
JP2022082280A (en) Image processing system and image processing method
WO2016159255A1 (en) Mouth region detection device and mouth region detection method
JP6452236B2 (en) Eyeball identification device and eyeball identification method
CN112544076A (en) Method and system for mapping non-uniformities of an image sensor
TWI704473B (en) Vision vector detecting method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231107