JP2022082280A - Image processing system and image processing method - Google Patents
Image processing system and image processing method Download PDFInfo
- Publication number
- JP2022082280A JP2022082280A JP2020193753A JP2020193753A JP2022082280A JP 2022082280 A JP2022082280 A JP 2022082280A JP 2020193753 A JP2020193753 A JP 2020193753A JP 2020193753 A JP2020193753 A JP 2020193753A JP 2022082280 A JP2022082280 A JP 2022082280A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- image processing
- observation object
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 64
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000001514 detection method Methods 0.000 claims abstract description 101
- 230000003287 optical effect Effects 0.000 claims abstract description 92
- 239000003550 marker Substances 0.000 claims abstract description 67
- 239000013598 vector Substances 0.000 claims description 49
- 238000000034 method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 23
- 230000001815 facial effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 7
- 238000007689 inspection Methods 0.000 description 36
- 210000001747 pupil Anatomy 0.000 description 18
- 239000000463 material Substances 0.000 description 6
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000011179 visual inspection Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像を処理する画像処理システム及び画像処理方法に関する。 The present invention relates to an image processing system and an image processing method for processing an image.
近年、ビデオカメラを使用して得られた顔画像を処理する顔画像処理装置が普及しつつある(例えば、下記特許文献1,2参照)。例えば、このような顔画像処理装置では、顔画像を処理することによって、瞳孔の三次元座標、及びカメラから瞳孔中心を結ぶ直線に対する視線の角度を求め、これらを基に視線を検出している。
In recent years, a face image processing device that processes a face image obtained by using a video camera has become widespread (see, for example,
昨今の製品の製造現場では、検査員等の対象者が製品を手に持って目視検査を行うことによって製品検査が行われている。このようなシーンにおいても、上述した特許文献1,2に記載の装置を利用することにより、対象者の視線の始点及び方向が検出可能とされる。しかしながら、製品検査時には製品等の観察対象物の位置及び角度が絶えず変化する場合があり、このような場合においても観察対象物上の対象者の注視点を検出して検出情報を出力することが望まれている。このような検出情報は、検査員の検査技術の向上、あるいは、検査員の検査効率の向上のために活用することができる。
In recent product manufacturing sites, product inspections are carried out by a target person such as an inspector holding the product in his hand and performing a visual inspection. Even in such a scene, the start point and direction of the line of sight of the subject can be detected by using the devices described in
本発明は、上記課題に鑑みて為されたものであり、位置及び角度が変化する観察対象物に対する対象者の注視点を精度よく検出することが可能な画像処理システム及び画像処理方法を提供することを目的とする。 The present invention has been made in view of the above problems, and provides an image processing system and an image processing method capable of accurately detecting the gaze point of a subject with respect to an observation object whose position and angle change. The purpose is.
上記課題を解決するため、本発明の一形態に係る画像処理システムは、対象者の顔を撮像するカメラを含み、対象者の視線の角度及び位置の検出に必要な顔画像を取得するための対象者検出用光学系と、対象者の観察対象の観察対象物を撮像するカメラを含み、観察対象物の配置角度及び位置の検出に必要な対象物画像を取得するための対象物検出用光学系と、顔画像及び対象物画像を対象に画像処理を実行する算出部と、を備え、算出部は、対象物画像を基に、観察対象物上のマーカの三次元位置を特定し、マーカの三次元位置を基に、観察対象物の配置角度及び位置を算出し、顔画像を基に対象者の視線の角度及び位置を算出し、視線の角度及び位置と、観察対象物の配置角度及び位置とを基に、観察対象物上の特定の面における対象者の注視点を検出する。 In order to solve the above problems, the image processing system according to one embodiment of the present invention includes a camera that captures the face of the subject, and acquires a face image necessary for detecting the angle and position of the line of sight of the subject. An optical system for detecting an object and an optical system for detecting an object for acquiring an object image necessary for detecting the arrangement angle and position of the object to be observed, including a camera for capturing the observation object of the object to be observed by the object. It includes a system and a calculation unit that executes image processing on the face image and the object image. The calculation unit identifies the three-dimensional position of the marker on the observation object based on the object image, and the marker. The placement angle and position of the observation object are calculated based on the three-dimensional position of, and the line-of-sight angle and position of the subject are calculated based on the face image. Based on the position and the position, the gaze point of the subject on a specific surface on the observation object is detected.
あるいは、本発明の他の形態に係る画像処理方法は、画像処理システムが実行する画像処理方法であって、対象者の顔を撮像して、対象者の視線の角度及び位置の検出に必要な顔画像を取得するステップと、対象者の観察対象の観察対象物を撮像して、観察対象物の配置角度及び位置の検出に必要な対象物画像を取得するステップと、顔画像及び対象物画像を対象に画像処理を実行するステップと、を備え、画像処理を実行するステップでは、対象物画像を基に、観察対象物上のマーカの三次元位置を特定し、マーカの三次元位置を基に、観察対象物の配置角度及び位置を算出し、顔画像を基に対象者の視線の角度及び位置を算出し、視線の角度及び位置と、観察対象物の配置角度及び位置とを基に、観察対象物上の特定の面における対象者の注視点を検出する。 Alternatively, the image processing method according to another aspect of the present invention is an image processing method executed by an image processing system, which is necessary for capturing an image of the subject's face and detecting the angle and position of the subject's line of sight. A step of acquiring a face image, a step of acquiring an object image necessary for detecting the arrangement angle and position of the observation object by imaging the observation object of the object to be observed, and a face image and an object image. In the step of executing image processing, the three-dimensional position of the marker on the observation object is specified based on the object image, and the three-dimensional position of the marker is used as the basis. In addition, the arrangement angle and position of the observation object are calculated, the angle and position of the line of sight of the subject are calculated based on the face image, and the angle and position of the line of sight and the arrangement angle and position of the observation object are used as the basis. , Detects the gaze point of the subject on a specific surface of the object to be observed.
上記形態の画像処理システムあるいは画像処理方法においては、対象者の顔画像が取得されるとともに観察対象物の画像である対象物画像が取得される。そして、対象物画像から検出された観察対象物上のマーカの三次元位置を用いて、観察対象物の配置角度及び位置が算出され、顔画像から対象者の視線の角度及び位置が算出され、それらを基に観察対象物上の対象者の注視点が検出される。これにより、観察対象物の目視検査を行う場合等で観察対象物の位置及び角度が変化する時でも観察対象物に対する対象者の注視点を精度よく検出することができる。 In the image processing system or image processing method of the above-described embodiment, the face image of the subject is acquired and the object image, which is an image of the observation object, is acquired. Then, the arrangement angle and position of the observation object are calculated using the three-dimensional position of the marker on the observation object detected from the object image, and the angle and position of the line of sight of the subject are calculated from the face image. Based on them, the gaze point of the subject on the observation object is detected. As a result, even when the position and angle of the observation object change due to a visual inspection of the observation object or the like, the gazing point of the subject with respect to the observation object can be accurately detected.
ここで、算出部は、観察対象物上の3点以上のマーカの三次元位置を特定し、3点以上のマーカの三次元位置を基に、観察対象物の配置角度及び位置を算出する、こととしてもよい。この場合、独立した3点以上のマーカの位置を用いることで観察対象物の配置角度及び位置がより高精度に算出され、観察対象物に対する対象者の注視点をより高精度に検出することができる。 Here, the calculation unit specifies the three-dimensional positions of three or more markers on the observation object, and calculates the arrangement angle and position of the observation object based on the three-dimensional positions of the three or more markers. It may be that. In this case, by using the positions of three or more independent markers, the placement angle and position of the observation object can be calculated with higher accuracy, and the gazing point of the subject with respect to the observation object can be detected with higher accuracy. can.
また、対象者検出用光学系と、対象物検出用光学系とを一体的に支持する支持部材をさらに備える、こととしてもよい。かかる構成においては、対象者検出用光学系を用いて検出される対象者の視線と、対象物検出用光学系を用いて検出される観察対象物の配置との関係を安定化させることができ、観察対象物に対する対象者の注視点を正確に検出することができる。 Further, a support member that integrally supports the target person detection optical system and the target object detection optical system may be further provided. In such a configuration, it is possible to stabilize the relationship between the line of sight of the subject detected by using the optical system for detecting the subject and the arrangement of the observation object detected by using the optical system for detecting the object. , It is possible to accurately detect the gaze point of the subject with respect to the observation object.
また、支持部材に支持され、対象者が観察対象物を把持する際の基準となる平板部材をさらに備える、こととしてもよい。この場合、対象物検出用光学系に対する観察対象物の位置が安定化されるため、観察対象物の配置角度及び位置を確実に検出できる。その結果、観察対象物に対する対象者の注視点をより確実に検出することができる。 Further, a flat plate member which is supported by the support member and serves as a reference when the subject grips the observation object may be further provided. In this case, since the position of the observation object with respect to the object detection optical system is stabilized, the arrangement angle and position of the observation object can be reliably detected. As a result, it is possible to more reliably detect the gaze point of the subject with respect to the observation object.
また、算出部は、観察対象物の配置角度及び位置を基に、三次元座標系における特定の面の式を求め、式と視線を表すベクトルとを基に、注視点を計算する、こととしてもよい。こうすれば、観察対象物上の特定の面の配置を式によって特定できるので、観察対象物上の特定の面における対象者の注視点を高精度に算出することができる。 In addition, the calculation unit obtains the formula of a specific surface in the three-dimensional coordinate system based on the arrangement angle and position of the observation object, and calculates the gazing point based on the formula and the vector representing the line of sight. May be good. By doing so, since the arrangement of the specific surface on the observation object can be specified by the formula, the gazing point of the subject on the specific surface on the observation object can be calculated with high accuracy.
また、算出部は、観察対象物の配置角度及び位置を基に、特定の面を複数に区切った面毎に式を求め、複数の面の式を用いて、複数の面の中からベクトルと交点を有する面を探索し、探索した当該面とベクトルとの交点を注視点として求める、こととしてもよい。このような構成によれば、形状が複雑な観察対象物を対象にした場合であっても、観察対象物上の特定の面の配置を、複数に区切った面毎に式によって特定できるので、観察対象物上の特定の面における対象者の注視点を高精度に算出することができる。 In addition, the calculation unit obtains an equation for each surface that divides a specific surface into a plurality of surfaces based on the arrangement angle and position of the observation object, and uses the equations of the plurality of surfaces to obtain a vector from the plurality of surfaces. A surface having an intersection may be searched for, and the intersection of the searched surface and the vector may be obtained as a gazing point. According to such a configuration, even when an observation object having a complicated shape is targeted, the arrangement of specific surfaces on the observation object can be specified by an equation for each surface divided into a plurality of areas. It is possible to calculate the gaze point of the subject on a specific surface of the observation object with high accuracy.
また、算出部は、予め複数の真のマーカの位置関係を記憶し、特定した複数のマーカの候補の三次元位置の中から、複数の真のマーカの三次元位置に絞り込み、絞り込んだ複数の真のマーカの三次元位置を基に観察対象物の配置角度及び位置を算出する、こととしてもよい。この場合、対象物画像から偽のマーカを含む複数のマーカが検出されたときにそれらのマーカの中から真のマーカに絞り込むことができる。その結果、観察対象物の配置を誤りなく検出でき、観察対象物上の特定の面における対象者の注視点を誤りなく検出することができる。 In addition, the calculation unit stores the positional relationship of a plurality of true markers in advance, narrows down the three-dimensional positions of the specified plurality of marker candidates to the three-dimensional positions of the plurality of true markers, and narrows down the plurality of positions. The placement angle and position of the observation object may be calculated based on the three-dimensional position of the true marker. In this case, when a plurality of markers including a fake marker are detected in the object image, the true marker can be narrowed down from those markers. As a result, the arrangement of the observation object can be detected without error, and the gazing point of the subject on a specific surface on the observation object can be detected without error.
また、算出部は、予め対象物検出用光学系によって得られた画像を基に、較正用視標の三次元位置を特定し、較正用視標の三次元位置を基に、顔画像を基に視線の角度及び位置を算出するための較正処理を予め実行する、こととしてもよい。この場合、対象者の注視点の検出精度を高めることができ、観察対象物上の特定の面における対象者の注視点を高精度に検出することができる。 In addition, the calculation unit identifies the three-dimensional position of the calibration optotype based on the image obtained in advance by the object detection optical system, and bases the face image on the basis of the three-dimensional position of the calibration optotype. A calibration process for calculating the angle and position of the line of sight may be performed in advance. In this case, the accuracy of detecting the gazing point of the subject can be improved, and the gazing point of the subject on a specific surface on the observation object can be detected with high accuracy.
本発明によれば、位置及び角度が変化する観察対象物に対する対象者の注視点を精度よく検出することができる。 According to the present invention, it is possible to accurately detect the gaze point of the subject with respect to the observation object whose position and angle change.
以下、図面を参照しつつ本発明に係る画像処理システムの好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。 Hereinafter, preferred embodiments of the image processing system according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts are designated by the same reference numerals, and duplicate description will be omitted.
まず、図1を参照して、実施形態に係る画像処理システム1の全体構成を説明する。図1は、画像処理システム1の側面図である。画像処理システム1は、電子基板等の板状の製品を検査員が目視検査する際に、製品の表面上の検査員の注視点の軌跡を検出してその検出結果を記録する処理システムである。この画像処理システム1は、検査員である対象者Sp及び検査対象の製品である観察対象物Soを撮像することにより、顔画像及び対象物画像を取得し、顔画像及び対象物画像を対象に画像処理を実行する装置群である。画像処理システム1は、対象者検出用光学系3、対象物検出用光学系5、テーブル7、コンピュータ(算出部)9、及び支持部材11を含んで構成されている。以下、画像処理システム1の各構成要素について説明する。
First, with reference to FIG. 1, the overall configuration of the
テーブル7は、対象者Spが検査を行う際に観察対象物Soを把持する際の基準となる天板部7aが、支柱7bにより支えられた構造を有する部材である。例えば、テーブル7は、対象者Spが観察対象物Soを把持する際に対象者Spの前腕部を支えて観察対象物Soの配置角度及び位置を安定させるため、及び対象者検出用光学系3をカバーして保護するために設けられる。天板部7aは、対象者検出用光学系3に対する対象者Spの撮影の障害となることを防ぐために、ガラス等の光透過性の材料により構成されることが好ましい。なお、対象者検出用光学系3をカバーして保護することを主目的にテーブル7が設けられる場合には、天板部7aを対象者Sp側に延ばした形状とし、その材質をガラス等の光透過性の材料により構成する。一方、観察対象物Soの配置角度及び位置を安定させることを主目的にテーブル7が設けられる場合には、天板部7aを、図1に示すような対象者検出用光学系3による撮影の障害にならないような形状とし、その材質を不透明な材料により構成してもよい。
The table 7 is a member having a structure in which the
対象者検出用光学系3は、テーブル7の天板部7aの下部において天板部7aの一端側(図1の左側)に固定され、天板部7aの一端側に離れて位置する対象者Spの顔を向くように光軸が調整された2台のカメラ(ステレオカメラ)を含む。それぞれのカメラは、対象者検出用光学系3が支持部材11に取り付けられてから予めカメラ較正がされており、対象者Spの顔を撮像し、顔画像を取得および出力する。本実施形態では、2台のカメラは、インターレーススキャン方式の一つであるNTSC方式のCMOS(Complementary Metal Oxide Semiconductor)ビデオカメラであり、各カメラには、対象者Spの瞳孔、角膜反射、あるいは鼻孔等の特徴点を検出するために特許第4500992号に記載の構成の近赤外光源(例えば、発光波長帯が850nm及び940nmの2種類の光源)が取り付けられている。対象者検出用光学系3は、コンピュータ9からの命令に応じて、近赤外線光源を点灯させるとともに対象者Spの顔を撮像し、顔画像のデータをコンピュータ9に出力する。これらの顔画像は、コンピュータ9において、対象者Spの視線の角度及び位置を検出するために用いられる。
The target person detection optical system 3 is fixed to one end side (left side in FIG. 1) of the
対象物検出用光学系5は、天板部7aの他端側(図1の右側)において天板部7aから離れた位置に固定され、天板部7aの上部に向くように光軸が調整された2台のカメラ(ステレオカメラ)を含む。それぞれのカメラは、対象物検出用光学系5が支持部材11に取り付けられてから予めカメラ較正がされており、対象者Spによって把持された観察対象物Soを、対象者Spに向かい合う面の反対側から撮像し、対象物画像を取得および出力する。本実施形態では、2台のカメラは、インターレーススキャン方式の一つであるNTSC方式のCMOSビデオカメラであり、各カメラには、観察対象物So上のマーカを検出するために近赤外光源(発光波長帯が940nmの光源)が取り付けられている。対象物検出用光学系5は、コンピュータ9からの命令に応じて、近赤外線光源を点灯させるとともに観察対象物Soを撮像し、対象物画像のデータをコンピュータ9に出力する。これらの対象物画像は、コンピュータ9において、観察対象物Soの配置角度及び位置を検出するために用いられる。
The object detection
コンピュータ9は、対象者検出用光学系3及び対象物検出用光学系5の制御と、対象者検出用光学系3及び対象物検出用光学系5によって取得された顔画像及び対象物画像を対象にした画像処理とを実行するデータ処理装置である。コンピュータ9は、据置型または携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、コンピュータ9は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続されうる。
The
支持部材11は、床面等の平坦な固定面上に載置されて、テーブル7、対象者検出用光学系3、及び対象物検出用光学系5を、一体的に支持する支持部材である。すなわち、支持部材11は、テーブル7の天板部7aの一端側(図1の左側)下部において、その光軸が天板部7aから離れる方向に斜め左上方を向くように対象者検出用光学系3を支持する。このとき、支持部材11は、対象者検出用光学系3のカメラの光軸が天板部7aを通らないように対象者検出用光学系3を支持することが好ましい。加えて、支持部材11は、テーブル7の天板部7aの他端側(図1の右側)に離れた位置において、その光軸が天板部7aの上部を向くように対象物検出用光学系5を支持する。ここで、支持部材11は、テーブル7の固定面からの高さを対象者Spの身長に合わせて調整可能に構成されていてもよく、その場合には、対象者Spの顔の位置に合わせて対象者検出用光学系3のカメラの光軸の傾きを調整可能に構成されていてもよく、テーブル7の高さに合わせて対象物検出用光学系5のカメラの光軸の傾きを調整可能に構成されていてもよい。
The
上記構成の画像処理システム1を用いる際には、対象者Spに対象者検出用光学系3の撮影範囲にその顔が入るように位置させる。そして、対象者Spに対して、その顔をテーブル7の天板部7aの上方に向けた状態で天板部7aの上面近傍において観察対象物Soを把持させ、観察対象物Soの特定の面である検査対象面を目視で検査させる。
When the
図2には、観察対象物Soの外観の一例を示し、(a)部には観察対象物Soを検査対象面P1側から見た外観を示し、(b)部には観察対象物Soを検査対象面P1の反対側の面P2から見た外観を示している。図2に示す観察対象物Soは、全体として凹凸面が不規則に形成された形状を有し、検査対象面P1には、対象者Spの視線検出処理の較正用の視標M1が付されている。また、検査対象面P1の反対側の面P2には、観察対象物Soの配置角度及び角度を算出するための基準として用いられる3点のマーカMA,MB,MCが付されている。ここでは、観察対象物Soの形状の例として、不規則な凹凸面を有する形状を挙げているが、平坦面を有する平板状の形状であってもよいし、円柱形状のように面形状が数式で近似できるような曲面を有する形状であってもよい。 FIG. 2 shows an example of the appearance of the observation object So, the part (a) shows the appearance of the observation object So as seen from the inspection target surface P1 side , and the part (b) shows the observation object So. Is shown as seen from the surface P2 on the opposite side of the surface P1 to be inspected. The observation object So shown in FIG. 2 has a shape in which uneven surfaces are irregularly formed as a whole, and the inspection target surface P1 has an optotype M1 for calibration of the line - of - sight detection process of the subject Sp. It is attached. Further, the surface P 2 on the opposite side of the surface P 1 to be inspected is provided with three markers M A , M B , and MC used as a reference for calculating the arrangement angle and the angle of the observation object So. ing. Here, as an example of the shape of the observation object So, a shape having an irregular uneven surface is given, but a flat plate shape having a flat surface may be used, or a surface shape such as a cylindrical shape may be used. It may be a shape having a curved surface that can be approximated by a mathematical formula.
観察対象物Soに付されるマーカMA,MB,MCとしては、白色等の対象物画像上で目立つ色彩のマーカが好ましく、LED等の発光体をマーカとして用いてもよく、発光体を用いる場合は対象物画像において中心精度が高まるような形状に映るように、発光部の高さが低く指向性が弱いLEDを用いる。また、対象物検出用光学系5のカメラとして近赤外線カメラを使用する場合には、再帰(再帰性)反射材料のマーカを用いることが好ましく、対象物検出用光学系5のカメラとしてカラーカメラを使用する場合には、背景に対して目立つ色(例えば、青色)のマーカを用いてもよい。
As the markers M A , MB, and MC attached to the observation object So, a marker having a color conspicuous on the object image such as white is preferable, and a light emitting body such as an LED may be used as the marker. When is used, an LED having a low light emitting portion and a weak directivity is used so that the image appears in a shape that enhances the center accuracy in the object image. When a near-infrared camera is used as the camera of the
図3の(a)部及び(b)部には、マーカMA,MB,MCの態様の例を示している。このように、マーカMA,MB,MCは、均一な色彩を有する所定形状(例えば、長方形)の内側の領域を別の色彩の外側の領域で囲むような態様が好ましい。このような態様では、図3の(a)部に示すように、内側の領域が赤外線を反射しやすい色彩(例えば、白色)を有し、外側の領域が赤外線を吸収しやすい色彩(例えば、黒色)を有することが好ましく、図3の(b)部に示すように、内側の領域が赤外線を吸収しやすい色彩(例えば、黒色)を有し、外側の領域が赤外線を反射しやすい色彩(例えば、白色)を有することも好ましい。 Part (a) and part (b) of FIG. 3 show examples of aspects of the markers M A , M B , and M C. As described above, it is preferable that the markers M A , MB, and MC have an embodiment in which the inner region of a predetermined shape (for example, a rectangle) having a uniform color is surrounded by the outer region of another color. In such an embodiment, as shown in part (a) of FIG. 3, the inner region has a color that easily reflects infrared rays (for example, white), and the outer region has a color that easily absorbs infrared rays (for example, for example). It is preferable to have black), and as shown in part (b) of FIG. 3, the inner region has a color that easily absorbs infrared rays (for example, black), and the outer region has a color that easily reflects infrared rays (for example, black). For example, it is also preferable to have white).
また、観察対象物Soの検査対象面P1に付される較正用の視標M1は、固定の大きさの視標であってもよいが、小型液晶ディスプレイ等を用いて、サイズが一度だけ、もしくは、繰り返し変化するような形態の視標M1であってもよい。このような形態の視標M1を用いることにより、対象者の視覚注意を引きやすい視標とすることができるため、対象者Spがより正確に視標M1に視線を向けることができる。その結果、較正が対象者Spの負担を少なくした状態で、より正しく較正を実行させることができる。図4は、観察対象物So上に表示される視標M1の態様の一例を示す図である。このように、視標M1は、大きなサイズから小さなサイズに動的に変化させるような態様で一度だけ、もしくは、繰り返し表示されることが好ましい。 Further, the calibration target M 1 attached to the inspection target surface P 1 of the observation target So may be a fixed size optotype, but the size may be once by using a small liquid crystal display or the like. However, the optotype M1 may be in a form that changes repeatedly. By using the optotype M 1 in such a form, it is possible to make the optotype easily attract the visual attention of the subject, so that the subject Sp can more accurately direct the line of sight to the optotype M 1 . As a result, the calibration can be performed more accurately while the calibration reduces the burden on the subject Sp. FIG. 4 is a diagram showing an example of an embodiment of the optotype M1 displayed on the observation object So. As described above, it is preferable that the optotype M1 is displayed only once or repeatedly in such a manner that the optotype M1 is dynamically changed from a large size to a small size.
図5は、コンピュータ9の一般的なハードウェア構成示すブロック図である。コンピュータ9は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU(プロセッサ)101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイやプリンタなどの出力装置106とを備える。
FIG. 5 is a block diagram showing a general hardware configuration of the
後述するコンピュータ9の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。
Each functional element of the
図6に示すように、コンピュータ9は、機能的構成要素として、撮像制御部21、画像取得部23、姿勢算出部25、視線算出部27、及び注視点検出部29を備える。以下、コンピュータ9の各構成要素の機能を説明する。
As shown in FIG. 6, the
撮像制御部21は、対象者Spを対象とした注視点検出処理が開始された後に、対象者検出用光学系3及び対象物検出用光学系5による撮像を制御する。その際、撮像制御部21は、特許第4500992号に記載のように、対象者検出用光学系3のステレオカメラによる撮像タイミングに応じて、ステレオカメラに取り付けられた2種類の発光波長の近赤外光源の点灯タイミングを制御する。このような撮像制御部21の制御により、ステレオカメラを構成する各カメラにおいては、1秒間に30枚得られる1フレームの顔画像として、奇数番目の水平画素ラインで構成される奇数フィールドの画像と、偶数番目の水平画素ラインで構成される偶数フィールドの画像とが得られ、奇数フィールドの画像と偶数フィールドの画像とが、瞳孔が比較的明るく写る顔画像(明瞳孔画像)及び瞳孔が比較的暗く写る顔画像(暗瞳孔画像)として、1/60秒の間隔で交互に撮影されることで生成される。ただし、ステレオカメラによる撮影のフレームレートは適宜設定されてよい。
The image
また、撮像制御部21は、対象者検出用光学系3の撮像の制御と同時に、対象物検出用光学系5の撮像を制御する。その際、撮像制御部21は、対象物検出用光学系5のステレオカメラによる撮像タイミングに応じて、ステレオカメラに取り付けられた近赤外光源の点灯タイミングを制御する。このような撮像制御部21の制御により、ステレオカメラを構成する各カメラにおいては、1秒間に30枚で同時に得られる1フレームの対象物画像が得られる。ここで、ステレオカメラによる撮影のフレームレートは適宜設定可能とされているが、対象者検出用光学系3によって得られる明瞳孔画像及び暗瞳孔画像の撮影のフレームレートと同一に設定されることが好ましい。なお、対象者Spが観察対象物Soを目視検査する際に観察対象物Soをテーブル7上で把持した際には、観察対象物Soの検査対象面P1の反対側の面P2(図2の(b)部)が対象物検出用光学系5を向くため、対象物検出用光学系5によって撮影される対象物画像にはマーカMA,MB,MCの像が映ることになる。撮像制御部21は、マーカMA,MB,MCの像のブレを防止してマーカMA,MB,MCの画像上の位置を正確に検出させるためには、対象物検出用光学系5の各カメラの露光時間をできるだけ短く(例えば、500μ秒)に設定することが好ましい。また、マーカMA,MB,MCとしてコンピュータ9により点灯制御が可能なLED等の発光体を用いる場合は、撮像制御部21は、近赤外光源の点灯タイミングと同期させてマーカMA,MB,MCを点灯させるように制御することが好ましい。
Further, the image
画像取得部23は、対象者検出用光学系3のステレオカメラ、及び対象物検出用光学系5のステレオカメラから、有線あるは無線のデータ転送インタフェースを介して、顔画像及び対象物画像をリアルタイムで取得する。そして、画像取得部23は、取得した顔画像を、その都度、視線算出部27に引き渡し、取得した対象物画像を、その都度、姿勢算出部25に引き渡す。
The
姿勢算出部25は、対象物検出用光学系5のステレオカメラによって同時に得られた一対の対象物画像を基に、観察対象物Soの配置角度及び位置(姿勢)を算出する。以下に姿勢算出部25の観察対象物Soの姿勢算出機能について説明する。姿勢算出部25は、下記の姿勢算出処理を連続的に得られる対象物画像のフレーム毎に連続して実行する。
The
姿勢算出部25は、一対の対象物画像のそれぞれから、画像上でのマーカの位置を検出する。すなわち、対象物画像を画素値の閾値を用いて二値化画像に変換し、二値化画像に対してラベリングを行った後、マーカMA,MB,MCの反射像らしい面積及び縦横比の像を探索することにより、ラベルの中からマーカの反射像の候補を選択する。このとき、姿勢算出部25は、マーカの反射像の候補を、マーカMA,MB,MCの形状(例えば、長方形)に対応した幾何学形状パターンマッチングにより選択することもでき、観察対象物Soの姿勢が回転して反射像の形状が変化する場合にも対応できるように、幾何学形状パターンマッチングを実行する。
The
また、姿勢算出部25は、選択したマーカの候補の画像上の中心座標を、一対の対象物画像に関して取得し、一対の対象物画像上のマーカの候補の中心座標を対象に総当たりでステレオマッチングを行うことにより、予め規定された3次元座標系である世界座標系XW-YW-ZW(図1)におけるマーカの候補の3次元座標を特定する。さらに、姿勢算出部25は、特定したマーカの候補が4点以上である場合には、特定した4点以上のマーカ候補の3次元座標の中から、3点の真のマーカMA,MB,MCの3次元座標を絞り込む。このとき、姿勢算出部25は、予め補助記憶部103等のデータベース内に3点のマーカMA,MB,MCの位置関係を示すデータを記憶しておき、そのデータに対応するマーカの候補の3次元座標を、真のマーカの3次元座標として絞り込む。例えば、マーカMAからマーカMBに向かうベクトルVAのデータと、マーカMAからマーカMCに向かうベクトルVBのデータとを予め記録しておき、これらのベクトルVA,VBに対応するマーカの候補の3次元座標を真のマーカMA,MB,MCのものとして選択することが行われる。これにより、近赤外光、あるいは検査環境に設けられた照明による光等の反射による画像ノイズとなり、観察対象物So上でマーカとして誤って認識された偽のマーカMX(図2の(b)部参照)を、真のマーカから除外することができる。
Further, the
加えて、姿勢算出部25は、絞り込んだ3点のマーカMA,MB,MCの3次元座標を用いて、世界座標系XW-YW-ZWにおける観察対象物Soの姿勢として、世界座標系XW-YW-ZWにおける対象物座標系Xh-Yh-Zhの位置及び方向を算出する。すなわち、姿勢算出部25は、2点のマーカMA,MCの3次元座標の中点を、対象物座標系Xh-Yh-Zhの中心の座標Ohとして求め、3点のマーカMA,MB,MCを通る平面の法線ベクトルを、Zh軸を規定する方向ベクトルとして求める。また、マーカMAからマーカMBに向かうベクトルVAと、マーカMAからマーカMCに向かうベクトルVBとを規定の比率でそれぞれ合成した互いに垂直な2つのベクトルを、Xh軸及びYh軸を規定する方向ベクトルとして求める。そして、姿勢算出部25は、平面の法線ベクトル、及びXh軸及びYh軸を規定する方向ベクトルを基に、世界座標系XW-YW-ZWにおける観察対象物Soの平面を規定する対象物座標系Xh-Yh-ZhのYW軸,XW軸,ZW軸周りの回転角度α、β、γをそれぞれ計算する。このようにして、姿勢算出部25は、中心座標Oh及び回転角度α、β、γを、観察対象物Soの姿勢を特定するパラメータとして計算する。
In addition, the
また、姿勢算出部25は、上述したマーカの候補の3次元座標を特定と同様にして、視線ベクトルの較正処理時に、世界座標系XW-YW-ZWにおける視標M1の3次元座標を特定する。
Further, the
視線算出部27は、対象者検出用光学系3のステレオカメラで得られたそれぞれの顔画像を対象にして、特許第4500992号に記載の手法と同様にして、対象者Spの視線の検出処理を実行する。このとき、視線算出部27は、対象者検出用光学系3によって連続的に得られる顔画像のフレーム毎に視線検出処理を実行する。
The line-of-
詳細には、視線算出部27は、顔画像上で検出された瞳孔の位置を基に、ステレオマッチングを行うことにより、世界座標系XW-YW-ZWにおける瞳孔位置の3次元座標を計算する。このとき、視線算出部27は、ステレオカメラを構成する2つのカメラの顔画像を基にピンホールの位置から瞳孔に向かうベクトルを求め、それらの2つのベクトルの交点を求めることで、瞳孔位置の3次元座標を計算することができる。また、視線算出部27は、国際公開WO2015/190204号に記載の手法を用いて、2本のベクトルの最近点を瞳孔位置として検出することもできる。この場合には、誤差のため2つのベクトルの交点が存在しない場合にも瞳孔位置を求めることができる。
Specifically, the line-of-
さらに、視線算出部27は、顔画像を基に算出した瞳孔位置と、顔画像を基に検出した顔画像上の瞳孔及び角膜反射の位置を基に、特許第4500992号に記載の手法を用いて、対象者Spの視線ベクトルを算出する。ここで、視線とは、瞳孔と注視点とを結ぶ直線であり、視線ベクトルは、世界座標系XW-YW-ZWにおける視線の始点の位置及び視線の角度(方向)を表すデータである。
Further, the line-of-
また、視線算出部27は、国際公開WO2012/020760に記載の手法を用いて、対象物画像によって検出された較正用の視標M1(図2の(a)部)の3次元座標を利用して、予め、視線ベクトルの計算に用いる係数を較正する処理を行ってもよい。ただし、この較正処理は、毎回の視線検出処理時に実行される必要はなく、対象者Spが変わるタイミング毎、観察対象物Soの種類が変更されるタイミング毎に少なくとも1回実行されればよい。
Further, the line-of-
例えば、観察対象物Soの代わりに、観察対象物Soと同等な大きさの小型液晶ディスプレイ等(後述する図8に示すような構成のディスプレイ装置)に、図4に示した表示態様で視標M1を表示させた状態で、対象者Spに小型液晶ディスプレイを把持させてもよい。つまり、小型液晶ディスプレイ上で、視標M1を最初に大きく出現させ、対象者Spにその視標M1の中心の小さな点に注目させた後に、所定時間(例えば、1秒程度)の間で視標M1を次第に小さく縮小させて表示させながら対象者Spに続けて視標M1の中心に注目させる。視線算出部27は、そのような状態において得られた顔画像を用いて、視線ベクトルの計算に用いる係数を較正する処理を実行する。この較正処理の後に対象者Spに観察対象物Soに持ち替えさせた状態で、視線算出部27は、対象者Spの視線ベクトルの算出処理を実行する。このように、対象者Spに観察対象物Soと同等な大きさの小型ディスプレイ上に表示された視標M1を注目させた状態で較正処理を実行することで、較正処理時において、視標M1から対象者Spの顔までの距離を観察対象物Soから顔までの距離と同等に設定することができ、注視点検出部29による注視点検出の精度を高くすることができる。
For example, instead of the observation object So, a small liquid crystal display or the like having the same size as the observation object So (a display device having a configuration as shown in FIG. 8 to be described later) is displayed in the display mode shown in FIG. The subject Sp may hold the small liquid crystal display while M 1 is displayed. That is, after the optotype M1 first appears large on the small liquid crystal display and the subject Sp focuses on a small point at the center of the optotype M1, for a predetermined time (for example, about 1 second). While gradually reducing the size of the optotype M 1 and displaying it, pay attention to the center of the optotype M 1 following the subject Sp. The line-of-
注視点検出部29は、姿勢算出部25によって算出された観察対象物Soの姿勢のデータと、視線算出部によって算出された対象者Spの視線ベクトルとを用いて、観察対象物Soの検査対象面P1上の対象者Spの注視点を検出する。そして、注視点検出部29は、検出した注視点のデータをディスプレイなどの出力装置106に視認可能に出力する。ここで、出力対象の注視点のデータは、対象物座標系Xh-Yh-Zhにおける注視点の座標のデータであってよい。また、注視点検出部29は、検出した注視点のデータを、補助記憶部103内のデータベースに記憶してもよい。
The gazing
詳細には、注視点検出部29は、姿勢算出部25によって算出された対象物座標系Xh-Yh-Zhの位置及び方向を用いて、視線ベクトルを対象物座標系Xh-Yh-Zhにおけるベクトルに変換する。このベクトルの変換は、視線ベクトルを、対象物座標系Xh-Yh-Zhの世界座標系XW-YW-ZWに対する原点の移動状態(例えば、中心の座標Oh)及び軸周りの回転状態(例えば、回転角度α、β、γ)を用いて変換を行うことにより実現される。そして、注視点検出部29は、変換された視線ベクトルと、予め補助記憶部103内に記憶された対象物座標系Xh-Yh-Zhにおける検査対象面P1の形状及び位置を特定するための式とを基に、視線ベクトルと検査対象面P1の交点を求めることにより、対象者Spの検査対象面P1上における注視点の3次元座標を検出する。
Specifically, the gazing
このとき、注視点検出部29は、次のようにして注視点を検出してもよい。すなわち、注視点検出部29は、対象物座標系Xh-Yh-Zhの位置及び方向と検査対象面P1の式とを基に、世界座標系XW-YW-ZWにおける検査対象面P1の式を計算する。この式の計算は、対象物座標系Xh-Yh-Zhの世界座標系XW-YW-ZWに対する原点の移動状態(例えば、中心の座標Oh)及び軸周りの回転状態(例えば、回転角度α、β、γ)を用いて、この移動状態及び回転状態に応じた座標変換を行うことにより実現される。そして、注視点検出部29は、世界座標系XW-YW-ZWにおける検査対象面P1の式と対象者Spの視線ベクトルとを用いて検査対象面P1と視線ベクトルとの交点を求めることにより、対象者Spの検査対象面P1上における注視点の3次元座標を検出する。例えば、検査対象面P1が円柱形状を有する場合には、円柱形状を表す式を座標変換した式を用いて注視点を検出することができる。さらに、世界座標系XW-YW-ZWにおける注視点の3次元座標を対象物座標系Xh-Yh-Zhにおける3次元座標に変換する。
At this time, the gazing
ここで、検査対象面P1が凹凸面を有する不規則な面形状の場合には、メッシュ状に区切った面毎に平面形状あるいは曲面形状(例えば、球面形状)で近似した式が予め補助記憶部103内に記憶されていてもよい。この場合、注視点検出部29は、メッシュ状に区切った面毎に検査対象面P1の式を求め、区切った複数の面の中から視線ベクトルと交点を有する面を探索し、探索した面と視線ベクトルとの交点を注視点として計算する。このとき、注視点検出部29は、視線ベクトルを視点から先端に向かう方向に一定距離間隔で延ばしていきながら、その先端の座標と複数の面との間の距離を算出し、距離が閾値以下となった面を探索することができる。
Here, in the case where the inspection target surface P 1 has an irregular surface shape having an uneven surface, an equation approximated by a planar shape or a curved surface shape (for example, a spherical shape) for each surface divided into a mesh shape is stored in advance. It may be stored in the
次に、上述した画像処理システム1における注視点検出処理の手順を説明するとともに、本実施形態に係る画像処理方法について詳述する。図7は、画像処理システム1による注視点検出処理の手順を示すフローチャートである。
Next, the procedure of the gaze point detection process in the
まず、コンピュータ9において外部から指示入力が受け付けられたことを契機に、注視点検出処理が開始され、コンピュータ9の撮像制御部21により、対象者検出用光学系3による対象者Spの撮像の制御と、対象物検出用光学系5による観察対象物Soの撮像の制御とが開始される(ステップS1)。これに応じて、コンピュータ9の画像取得部23によって、連続して1フレーム毎に顔画像及び対象物画像が取得される(ステップS2)。
First, when the
その後、コンピュータ9の姿勢算出部25によって、1フレーム毎の対象物画像を対象に姿勢算出処理が実行されることにより、観察対象物Soの姿勢を表すデータとして、対象物座標系Xh-Yh-Zhの移動状態及び回転状態を示すデータが算出される(ステップS3)。それとともに、コンピュータ9の視線算出部27により、1フレーム毎の顔画像を対象に視線検出処理が実行され、対象者Spの視線ベクトルが算出される(ステップS4)。
After that, the
次に、コンピュータ9の注視点検出部29により、対象物座標系Xh-Yh-Zhの移動状態及び回転状態を示すデータを用いて、世界座標系XW-YW-ZWにおける観察対象物Soの検査対象面P1の式が計算される(ステップS5)。そして、注視点検出部29により、対象者Spの視線ベクトルと検査対象面P1との間の交点が求められることにより、検査対象面P1上における対象者Spの注視点の3次元座標が検出される(ステップ6)。上記のステップS3~S6までの処理は、対象者検出用光学系3及び対象物検出用光学系5において同じタイミングで撮像されて取得された顔画像及び対象物画像のフレーム毎に繰り返される(ステップS7)。最後に、注視点検出部29により、顔画像及び対象物画像のフレーム毎に連続して検出された注視点の3次元座標を示すデータが、出力装置106に出力される(ステップS8)。このとき、例えば、観察対象物Soの画像上に対象者Spの注視点を示すマーカが重畳された画像が出力されてよい。また、この際には、注視点の3次元座標を示すデータが、観察対象物Soの姿勢を表すデータとともに補助記憶部103内のデータベースに記録されてもよい。
Next, in the world coordinate system XW - YW - ZW , the gazing
以上説明した本実施形態に係る画像処理システム1によれば、対象者Spの顔画像が取得されるとともに観察対象物Soの画像である対象物画像が取得される。そして、対象物画像から検出された観察対象物So上の3点のマーカMA,MB,MCの三次元位置を用いて、観察対象物Soの配置角度及び位置が算出され、顔画像から対象者Spの視線の角度及び位置が算出され、それらを基に観察対象物Soの検査対象面P1上の対象者Spの注視点の位置が検出される。これにより、観察対象物Soの目視検査を行う場合等で観察対象物Soの位置及び角度が変化する時でも観察対象物Soに対する対象者Spの注視点を精度よく検出することができる。
According to the
ここで、画像処理システム1には、対象者検出用光学系3と、対象物検出用光学系5とを一体的に支持する支持部材11がさらに備えられている。かかる構成においては、対象者検出用光学系3を用いて検出される対象者Spの視線ベクトルと、対象物検出用光学系5を用いて検出される観察対象物Soの配置との関係を安定化させることができ、観察対象物Soに対する対象者Spの注視点の位置を正確に検出することができる。
Here, the
また、画像処理システム1は、支持部材11に支持され、対象者Spが観察対象物Soを把持する際の基準となるテーブル7をさらに備えている。この場合、対象物検出用光学系5対する観察対象物Soの位置が安定化されるため、観察対象物Soの配置角度及び位置を確実に検出できる。その結果、観察対象物Soに対する対象者Spの注視点の位置をより確実に検出することができる。
Further, the
また、コンピュータ9は、観察対象物Soの配置角度及び位置を基に、三次元座標系における検査対象面P1の式を求め、この式と視線ベクトルとを基に、注視点の位置を計算している。こうすれば、観察対象物Soの検査対象面P1の配置を式によって特定できるので、観察対象物Soの検査対象面P1上における対象者Spの注視点の位置を高精度に算出することができる。
Further, the
また、コンピュータ9は、観察対象物Soの配置角度及び位置を基に、検査対象面P1を複数に区切った面毎に式を求め、複数の面の式を用いて、複数の面の中から視線ベクトルと交点を有する面を探索し、探索した当該面と視線ベクトルとの交点を注視点の位置として求めている。このような構成によれば、形状が複雑な観察対象物Soを対象にした場合であっても、観察対象物Soの検査対象面P1の配置を、複数に区切った面毎に式によって特定できるので、観察対象物Soの検査対象面P1における対象者Spの注視点の位置を高精度に算出することができる。
Further, the
また、コンピュータ9は、予め3点の真のマーカMA,MB,MCの位置関係を記憶し、特定した4点以上のマーカの候補の3次元座標の中から、3点の真のマーカMA,MB,MCの3次元座標に絞り込み、絞り込んだ3点の真のマーカMA,MB,MCの3次元座標を基に観察対象物Soの配置角度及び位置を算出している。この場合、対象物画像から偽のマーカを含む4点以上のマーカが検出されたときにそれらのマーカの中から真のマーカMA,MB,MCに絞り込むことができる。その結果、観察対象物Soの配置を誤りなく検出でき、観察対象物Soの検査対象面P1における対象者Spの注視点の位置を誤りなく検出することができる。
Further, the
本発明は、上述した実施形態に限定されるものではない。 The present invention is not limited to the above-described embodiment.
例えば、観察対象物Soの検査対象面P1上には、観察対象物Soの姿勢検出用のマーカが4点以上で付されていてもよい。その際には、コンピュータ9の姿勢算出部25は、4点以上のマーカの3次元座標を特定し、それらの3次元座標を用いて観察対象物Soの姿勢を算出する。例えば、4点のマーカの3次元座標を用いる場合には、姿勢算出部25は、4点のマーカの重心を対象物座標系Xh-Yh-Zhの中心の座標Ohとして求め、4点のマーカの3次元座標から最小二乗法を用いて平面の式を算出し、算出した平面の式から決定される法線ベクトルを、Zh軸を規定する方向ベクトルとして求める。また、真のマーカが4点である場合には、姿勢算出部25は、上述した実施形態と同様にして、5点以上のマーカ候補の3次元座標の中から、4点の真のマーカの3次元座標を絞り込む。
For example, on the inspection target surface P1 of the observation target So, four or more markers for detecting the posture of the observation target So may be attached. At that time, the
また、観察対象物Soの検査対象面P1上に付される観察対象物Soの姿勢検出用のマーカの形態としては、QRコード(登録商標)、あるいは、それを簡略化したコードを含むような、画像処理によって識別可能なパターンを有するものであってよい。さらに、同一の観察対象物Soの検査対象面P1上に付される複数のマーカは、互いに異なるパターンを有するものであってもよい。この場合は、コンピュータ9の姿勢算出部25は、簡易な画像処理により、検査対象面P1上の複数のマーカの反射像の位置を、それぞれを識別可能な状態で検出することができる。その結果、真のマーカの3次元座標を絞り込む処理の処理時間を短縮化することができる。
Further, the form of the marker for detecting the posture of the observation object So attached on the inspection target surface P1 of the observation object So includes a QR code (registered trademark) or a simplified code thereof. It may have a pattern that can be identified by image processing. Further, the plurality of markers attached to the inspection target surface P1 of the same observation target So may have different patterns from each other. In this case, the
一方で、他の変形例では、観察対象物Soの検査対象面P1上に観察対象物Soの姿勢検出用の1点のマーカが付されていてもよい。例えば、図3の(a)部に示すような形態のマーカであって、内側の白色の長方形の形状において4隅の角の形状がそれぞれ異なるようなマーカが1点で付されてもよい。このような形態のマーカとしては、例えば、4隅の角の欠け方が各々異なっている形態が例示される。コンピュータ9の姿勢算出部25は、対象物画像において1点のマーカの4隅の位置をそれらの形状の違いによって識別することができる。例えば、形状を表すテンプレートを回転させてそのテンプレートと対象物画像とを照合することによって識別できる。その結果、姿勢算出部25は、1点のマーカの4隅の3次元座標を検出することができ、それらの検出結果を利用して観察対象物Soの姿勢を算出することができる。
On the other hand, in another modification, a marker for detecting the posture of the observation target So may be attached on the inspection target surface P1 of the observation target So. For example, a marker having the form shown in the part (a) of FIG. 3 and having different shapes of the corners at the four corners in the shape of the inner white rectangle may be attached at one point. As the marker of such a form, for example, a form in which the corners of the four corners are chipped differently is exemplified. The
さらに言えば、特別なマーカを用意して観察対象物Soに付与することなく、観察対象物Soにもともと存在する3ヵ所以上の特徴点あるいは一つの特徴的形状の部分が、マーカとして利用されてもよい。この場合、姿勢算出部25は、特徴点あるいは特徴的形状部分を、対象物画像を対象にした画像処理によってマーカとして特定する。
Furthermore, without preparing a special marker and attaching it to the observation object So, three or more feature points or one characteristic shape portion originally existing in the observation object So can be used as a marker. May be good. In this case, the
また、画像処理システム1による撮像対象の観察対象物Soとしては、図8に示すような液晶ディスプレイ、タブレット端末、小型ゲーム機器等の平板状のディスプレイ装置を対象としてもよい。この場合、例えば、ディスプレイに表示される画像のどの部分に視線を向けているかが検出でき、その検出結果に応じて、次の処理内容や画像表示に反映させてもよい。本変形例においては、画像処理システム1による撮像時に、観察対象物Soの表示面である検査対象面P1上に較正用の視標M1を動的に表示させるようにしてもよい。このような視標M1の顔画像上の位置を利用することによっても、視線ベクトルの計算に用いる係数を予め較正することができる。ただし、この係数の較正を正確に行うためには、対象者Spに視標M1の中心に向けて正しく視線を合わせてもらう必要がある。そのため、正確な較正を実現するために、図4に示したように、視標M1を大きなサイズから小さなサイズに動的に変化させるように表示させることが好ましい。このように表示させることによって、対象者Spは集中力を高めることができ、その結果、視標M1の中心の小領域に両眼の視線を容易に合わせることができる。その結果、正確な視線ベクトルの較正を実現することができる。
Further, as the observation target So to be imaged by the
また、対象者検出用光学系3あるいは対象物検出用光学系5は、ステレオカメラで構成されることには限定されず、1台のカメラで構成されていてもよい。あるいは、対象者検出用光学系3及び対象物検出用光学系5は、高性能(高解像度、高速、広視野等)の光学系を含む1台のカメラで構成されて、対象者Spと観察対象物Soの位置関係に対応して、1台のカメラによって対象者Sp及び観察対象物Soを同時撮影可能に構成されていてもよい。このような光学系を含む画像処理システム1によれば、観察対象物Soの姿勢及び対象者Spの視線方向を同時検出することができる。
Further, the target person detection optical system 3 or the object detection
また、画像処理システム1の観察対象のマーカは、直接、観察対象物So上に付されていることには限定されない。例えば、電子基板などが観察対象物Soである場合、それを保持する治具を用意して、その治具の裏面に複数のマーカを付するようにしてもよい。
Further, the marker of the observation target of the
また、画像処理システム1の観察対象のマーカは、立体的な形状の観察対象物Soに4点以上で付与されたマーカであってもよい。この場合、例えば、対象者Spによる目視検査時の回転操作によって、1点のマーカが隠れたり、対象物検出用光学系5の視野から1点のマーカが外れたりしても、残った3点のマーカの3次元位置を検出することができる。
Further, the marker to be observed in the
また、画像処理システム1は、図1に示した要素以外に、対象者検出用光学系3、対象物検出用光学系5、及び、コンピュータ9を収納する筐体(ケース)を備えてもよい。この場合、筐体における対象者検出用光学系3の上部は、ガラス等の少なくとも光源に使用した波長帯において光透過性のある部材によって構成される。これにより、対象者検出用光学系3のカメラを保護(カバー)しつつ、そのカメラによる対象者Spの撮像を可能にする。
In addition to the elements shown in FIG. 1, the
また、図1に示す構成では、支持部材11が、テーブル7、対象者検出用光学系3、及び対象物検出用光学系5を一体的に支持しているが、テーブル7の天板部7aを対象物検出用光学系5側に延ばした形状とし、天板部7aによって対象物検出用光学系5を支持し、天板部7aの対象者Sp側の下部の適切な位置に、別のテーブルあるいは筐体を一体的に設けて、そのテーブルあるいは筐体に対象者検出用光学系3を固定してもよい。すなわち、支持部材11の役割を、テーブル7自体あるいはテーブル7に一体的に設けられた部材に担わせてもよい。
Further, in the configuration shown in FIG. 1, the
また、画像処理システム1においては、テーブル7が省かれていてもよい。
Further, in the
1…画像処理システム、3…対象者検出用光学系、5…対象物検出用光学系、7…テーブル(平板部材)、9…コンピュータ(算出部)、11…支持部材、MA,MB,MC…マーカ、P1…検査対象面(特定の面)、So…観察対象物、Sp…対象者。 1 ... Image processing system, 3 ... Optical system for object detection, 5 ... Optical system for object detection, 7 ... Table (flat plate member), 9 ... Computer (calculation unit), 11 ... Support member, MA , MB , MC ... Marker, P 1 ... Inspection target surface (specific surface), So ... Observation target, Sp ... Subject.
Claims (9)
前記対象者の観察対象の観察対象物を撮像するカメラを含み、前記観察対象物の配置角度及び位置の検出に必要な対象物画像を取得するための対象物検出用光学系と、
前記顔画像及び対象物画像を対象に画像処理を実行する算出部と、を備え、
前記算出部は、
前記対象物画像を基に、前記観察対象物上のマーカの三次元位置を特定し、前記マーカの三次元位置を基に、前記観察対象物の配置角度及び位置を算出し、
前記顔画像を基に前記対象者の視線の角度及び位置を算出し、前記視線の角度及び位置と、前記観察対象物の配置角度及び位置とを基に、前記観察対象物上の特定の面における前記対象者の注視点を検出する、
画像処理システム。 An optical system for detecting a subject, including a camera that captures the face of the subject, and an optical system for detecting the subject, for acquiring a facial image necessary for detecting the angle and position of the line of sight of the subject.
An object detection optical system for acquiring an object image necessary for detecting the arrangement angle and position of the observation object, including a camera that captures the observation object of the observation object of the subject.
A calculation unit that executes image processing on the face image and the object image is provided.
The calculation unit
The three-dimensional position of the marker on the observation object is specified based on the object image, and the arrangement angle and position of the observation object are calculated based on the three-dimensional position of the marker.
The angle and position of the line of sight of the subject are calculated based on the face image, and the specific surface on the object to be observed is based on the angle and position of the line of sight and the arrangement angle and position of the object to be observed. Detects the gaze point of the subject in
Image processing system.
請求項1記載の画像処理システム。 The calculation unit identifies the three-dimensional positions of three or more markers on the observation object, and calculates the arrangement angle and position of the observation object based on the three-dimensional positions of the three or more markers. ,
The image processing system according to claim 1.
請求項1又は2に記載の画像処理システム。 Further, a support member for integrally supporting the object detection optical system and the object detection optical system is provided.
The image processing system according to claim 1 or 2.
請求項3に記載の画像処理システム。 A flat plate member supported by the support member and used as a reference when the subject grips the observation object is further provided.
The image processing system according to claim 3.
請求項1~4のいずれか1項に記載の画像処理システム。 The calculation unit obtains an equation for the specific surface in the three-dimensional coordinate system based on the arrangement angle and position of the observation object, and calculates the gazing point based on the equation and the vector representing the line of sight. do,
The image processing system according to any one of claims 1 to 4.
請求項5に記載の画像処理システム。 Based on the arrangement angle and position of the observation object, the calculation unit obtains an equation for each of the surfaces in which the specific surface is divided into a plurality of surfaces, and uses the equations of the plurality of the surfaces in the plurality of the surfaces. Searches for a surface having an intersection with the vector, and obtains the intersection of the searched surface with the vector as the gazing point.
The image processing system according to claim 5.
請求項1~6のいずれか1項に記載の画像処理システム。 The calculation unit stores the positional relationship of a plurality of true markers in advance, narrows down the three-dimensional positions of the specified plurality of marker candidates to the three-dimensional positions of the plurality of true markers, and narrows down the plurality of positions. The placement angle and position of the observation object are calculated based on the three-dimensional position of the true marker of.
The image processing system according to any one of claims 1 to 6.
請求項1~6のいずれか1項に記載の画像処理システム。 The calculation unit identifies the three-dimensional position of the calibration optotype based on the image obtained in advance by the object detection optical system, and creates the face image based on the three-dimensional position of the calibration optotype. Based on this, a calibration process for calculating the angle and position of the line of sight is executed in advance.
The image processing system according to any one of claims 1 to 6.
対象者の顔を撮像して、前記対象者の視線の角度及び位置の検出に必要な顔画像を取得するステップと、
前記対象者の観察対象の観察対象物を撮像して、前記観察対象物の配置角度及び位置の検出に必要な対象物画像を取得するステップと、
前記顔画像及び対象物画像を対象に画像処理を実行するステップと、を備え、
前記画像処理を実行するステップでは、
前記対象物画像を基に、前記観察対象物上のマーカの三次元位置を特定し、前記マーカの三次元位置を基に、前記観察対象物の配置角度及び位置を算出し、
前記顔画像を基に前記対象者の視線の角度及び位置を算出し、前記視線の角度及び位置と、前記観察対象物の配置角度及び位置とを基に、観察対象物上の特定の面における前記対象者の注視点を検出する、
画像処理方法。 An image processing method executed by an image processing system.
A step of taking an image of the subject's face and acquiring a facial image necessary for detecting the angle and position of the subject's line of sight.
A step of capturing an observation object of the observation target of the subject and acquiring an object image necessary for detecting the arrangement angle and position of the observation object, and
A step of executing image processing on the face image and the object image is provided.
In the step of executing the image processing,
The three-dimensional position of the marker on the observation object is specified based on the object image, and the arrangement angle and position of the observation object are calculated based on the three-dimensional position of the marker.
The angle and position of the line of sight of the subject are calculated based on the face image, and the angle and position of the line of sight and the arrangement angle and position of the object to be observed are used on a specific surface of the object to be observed. Detecting the gaze point of the subject,
Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020193753A JP2022082280A (en) | 2020-11-20 | 2020-11-20 | Image processing system and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020193753A JP2022082280A (en) | 2020-11-20 | 2020-11-20 | Image processing system and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022082280A true JP2022082280A (en) | 2022-06-01 |
Family
ID=81810759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020193753A Pending JP2022082280A (en) | 2020-11-20 | 2020-11-20 | Image processing system and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022082280A (en) |
-
2020
- 2020-11-20 JP JP2020193753A patent/JP2022082280A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6523925B2 (en) | Authentication apparatus using biometric information and authentication method | |
US9432655B2 (en) | Three-dimensional scanner based on contours from shadow images | |
WO2018030515A1 (en) | Line-of-sight detection device | |
CN110967166B (en) | Detection method, detection device and detection system of near-eye display optical system | |
US11710289B2 (en) | Information processing apparatus, information processing system, and material identification method | |
US20150029322A1 (en) | Method and computations for calculating an optical axis vector of an imaged eye | |
JPH10326148A (en) | Hand pointing device | |
US9107613B2 (en) | Handheld scanning device | |
WO2019003383A1 (en) | Information processing device and method for specifying quality of material | |
KR20110094037A (en) | Video infrared retinal image scanner | |
US20220148218A1 (en) | System and method for eye tracking | |
JP2012216180A (en) | Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction | |
JP2018099174A (en) | Pupil detector and pupil detection method | |
CN108154126A (en) | Iris imaging system and method | |
JPH1163927A (en) | Head position and posture measuring device, and operation monitoring device | |
JP2016099759A (en) | Face detection method, face detection device, and face detection program | |
JP2007155357A (en) | Diameter measuring method or diameter measuring device | |
JP2001148025A (en) | Device and method for detecting position, and device and method for detecting plane posture | |
JP2003269913A (en) | Device and method for calibrating sensor, program, and storage medium | |
JP2002000567A (en) | Method of measuring pupil center position and method of detecting view point position | |
JP2022082280A (en) | Image processing system and image processing method | |
WO2016159255A1 (en) | Mouth region detection device and mouth region detection method | |
JP6452236B2 (en) | Eyeball identification device and eyeball identification method | |
CN112544076A (en) | Method and system for mapping non-uniformities of an image sensor | |
TWI704473B (en) | Vision vector detecting method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231107 |