JP7182103B2 - IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM - Google Patents

IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM Download PDF

Info

Publication number
JP7182103B2
JP7182103B2 JP2018228437A JP2018228437A JP7182103B2 JP 7182103 B2 JP7182103 B2 JP 7182103B2 JP 2018228437 A JP2018228437 A JP 2018228437A JP 2018228437 A JP2018228437 A JP 2018228437A JP 7182103 B2 JP7182103 B2 JP 7182103B2
Authority
JP
Japan
Prior art keywords
image data
threshold
moving image
still
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018228437A
Other languages
Japanese (ja)
Other versions
JP2020089560A (en
Inventor
正男 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Scalar Corp
Original Assignee
Scalar Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Scalar Corp filed Critical Scalar Corp
Priority to JP2018228437A priority Critical patent/JP7182103B2/en
Publication of JP2020089560A publication Critical patent/JP2020089560A/en
Application granted granted Critical
Publication of JP7182103B2 publication Critical patent/JP7182103B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

本発明は、眼球の画像の中から瞳孔の範囲を抽出するための画像処理技術に関する。 The present invention relates to an image processing technique for extracting a pupil range from an image of an eyeball.

瞳孔が、交感神経と副交感神経の二重支配を受けていることは、医学の分野で古くから知られている。瞳孔の拡大(散瞳)は交感神経のはたらきによって実現され、瞳孔の縮小(縮瞳)は、副交感神経のはたらきによって実現される。
したがって、刺激光を被験者の目に照射して瞳孔がどのように反応するかを観察することにより、交感神経と副交感神経とのどちらが優位にはたらいているか、ということを判定することができる。交感神経が優位である場合には一般に被験者は、緊張状態、興奮状態にあり、副交感神経が優位である場合には一般に被験者は、リラックス状態、鎮静状態にある。したがって、瞳孔の反応を観察することにより、交感神経と副交感神経とのどちらが優位にはたらいているかということだけでなく、例えば被験者の現時点における心身の状態をも、判定することが可能となる。しかも、周知のように、交感神経と副交感神経とはともに、被験者の意思とは無関係に働く自律神経に属する。したがって、かかる判定の結果は、被験者の意思によって誤魔化すことができないという点で信頼性が高い。
かかる瞳孔の観察による心身の状態の判定は、医療目的でも行われるし、そうでない目的でも行われる。また、被験者は人に限らず、例えば人以外の哺乳動物を対象とすることも可能である。
It has long been known in the medical field that the pupil is under the dual innervation of the sympathetic and parasympathetic nerves. Enlargement of the pupil (mydriasis) is achieved by the action of the sympathetic nerve, and contraction of the pupil (miosis) is achieved by the action of the parasympathetic nerve.
Therefore, it is possible to determine which of the sympathetic nerves and the parasympathetic nerves is working predominantly by irradiating the subject's eyes with stimulating light and observing how the pupils react. When the sympathetic nerve is dominant, the subject is generally in a tense or excited state, and when the parasympathetic nerve is predominant, the subject is generally in a relaxed or sedated state. Therefore, by observing the reaction of the pupil, it is possible to determine not only which of the sympathetic nerves and the parasympathetic nerves is working predominantly, but also, for example, the subject's current state of mind and body. Moreover, as is well known, both the sympathetic nerves and the parasympathetic nerves belong to the autonomic nerves, which work independently of the subject's will. Therefore, the result of such determination is highly reliable in that it cannot be deceived by the intention of the subject.
Determination of mental and physical conditions by observing pupils is performed for both medical and non-medical purposes. Moreover, subjects are not limited to humans, and can be mammals other than humans, for example.

以上の如き目的を達成するために眼球の撮像がなされることがあり得る。そのための眼球撮像装置も実用化されており、普及している。 In order to achieve the above purposes, an eyeball may be imaged. An eyeball imaging device for that purpose has also been put into practical use and is in widespread use.

しかしながら、そのような眼球撮像装置にも課題がある。
特に上述した目的で眼球を撮像した場合には、瞳孔の拡縮を正確に捉えることが必要となる。そのためには、カメラで眼球を撮像することによって生成された動画像の中から瞳孔の範囲を正確に抽出するための技術が必要となる。
しかしながら、それを自動的に行うのは簡単でない。瞳孔は、概ねその周囲に円形に広がる虹彩の中心に存在する。しかしながら、虹彩と瞳孔の境界線は滑らかな曲線状とはなっておらず細かな凹凸が存在するため、眼球を撮像して生成された動画像に対して画像処理を行って動画像中の瞳孔の範囲を抽出するのは、少なくともそれを正確に行おうとした場合には難しい。
However, such an eyeball imaging device also has a problem.
In particular, when the eyeball is imaged for the purpose described above, it is necessary to accurately capture the expansion and contraction of the pupil. For this purpose, a technique is required for accurately extracting the range of the pupil from the moving image generated by imaging the eyeball with a camera.
However, doing it automatically is not trivial. The pupil is generally in the center of the iris, which extends circularly around it. However, since the boundary line between the iris and the pupil is not a smooth curve and there are fine irregularities, image processing is performed on the moving image generated by imaging the eyeball, and the pupil in the moving image is corrected. Extracting the range of is difficult, at least when trying to do it accurately.

本願発明は、眼球を撮像して生成された動画像データに対して画像処理を行うことにより、自動的且つ正確に動画像中の瞳孔の範囲を抽出するための技術を提供することを課題とする。 An object of the present invention is to provide a technique for automatically and accurately extracting the range of the pupil in the moving image by performing image processing on the moving image data generated by imaging the eyeball. do.

上述の課題を解決するために本願発明者は次のような技術を提案する。
本願発明は、動画を撮像することのできる所定のカメラで撮像されることによって前記カメラによって生成された、被験者の片眼の眼球を含む静止画像についてのデータである静止画像データを多数連ねたものである、動画像のデータである動画像データを受付ける動画像データ受付部と、前記動画像データに含まれる前記静止画像データのうちの少なくとも複数に対して、閾値である特定閾値を用いて二値化の処理を行うことにより、前記静止画像を二値化した画像である二値静止画像のデータである二値静止画像データを多数連ねたものである、動画像のデータである二値動画像データを生成する二値化処理部と、を備えている画像処理装置である。
そして、この画像処理装置における前記二値化処理部は、二値化の対象となる複数の前記静止画像データに基づく前記静止画像のそれぞれを異なる複数の閾値である仮閾値で二値化することにより、各画素の濃度が極大か極小となるようにされた複数の仮閾値静止画像を生成する第1処理部と、前記第1処理部で生成された複数の前記仮閾値静止画像に基づいて、前記仮閾値が変化しても前記仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない前記仮閾値の範囲を特定するとともに、その範囲に含まれる閾値を前記特定閾値として決定して、複数の前記仮閾値静止画像のうちの当該特定閾値を用いて二値化されたものを前記二値静止画像として決定する第2処理部と、を備えている。
In order to solve the above problems, the inventor of the present application proposes the following technique.
The invention of the present application is a sequence of a large number of still image data, which is data about a still image including the eyeball of one eye of a subject, which is generated by a predetermined camera capable of capturing moving images. a moving image data receiving unit that receives moving image data that is moving image data; Binary moving image, which is moving image data, which is a sequence of a large number of binary still image data, which is binary still image data, which is an image obtained by binarizing the still image by performing a value conversion process. and a binarization processing unit that generates image data.
The binarization processing unit in the image processing apparatus binarizes each of the still images based on the plurality of still image data to be binarized using a plurality of different thresholds, which are provisional thresholds. a first processing unit for generating a plurality of provisional threshold still images in which the density of each pixel is maximized or minimized, and based on the plurality of provisional threshold still images generated by the first processing unit specifying a range of the provisional threshold in which the area of the range in which the density in the provisional threshold still image is maximum does not change even if the provisional threshold changes, and a threshold included in the range is set as the specific threshold. and a second processing unit that determines, as the binary still image, one of the plurality of temporary threshold still images that has been binarized using the specific threshold.

本願における画像処理装置は、動画像データに基づく動画の中から、より詳細には動画に映り込んだ眼球の中から瞳孔の範囲を抽出するために用いられる。もっとも、眼球の中から瞳孔の範囲を抽出する目的、或いは眼球の画像から抽出された瞳孔の範囲の利用目的は、交感神経と副交感神経とのどちらが優位にはたらいているかを判定することや、被験者の心身の状態を判定することであっても良いし、それ以外でも構わない。
本願における画像処理装置は、動画像データ受付部を備えており、カメラから動画像データを受取る。動画像データは、静止画像についてのデータである静止画像データを多数連ねたものである。かかる動画像データは、極一般的なものである。動画像データを構成する静止画像データに基づく静止画には、被験者の片眼の眼球が映り込んでいる。
上述したように、画像処理装置は、動画像データ受付部を備えており、動画像データ受付部によりカメラから動画像データを受取るようになっている。このとき、画像処理装置は、カメラとは別体に構成されている場合と、カメラと一体的に構成されている場合がある。カメラと別体で構成される画像処理装置は、デスクトップ型或いはラップトップ型のコンピュータ、タブレット、又はスマートフォン等の例えば公知或いは周知のコンピュータ装置によって構成される。これらによって画像処理装置がカメラと別体として構成される場合には、カメラとコンピュータ装置とを接続するための手段、例えば、カメラとコンピュータ装置とが有線接続される場合においてはコンピュータ装置における接続端子が、カメラとコンピュータ装置とが無線接続される場合においてはコンピュータ装置における通信機構(例えば、Bluetoothによる通信を行うための通信機構)が、本願発明における動画像データ受付部となる。画像処理装置がカメラと一体である場合、画像処理装置は例えば、カメラに内蔵された状態となる。その場合におけるカメラは、動画像データを生成する撮像素子(例えば、CCD、或いはCMOS)そのものということになり、画像処理装置として機能するカメラに内蔵のコンピュータ(この場合には、演算装置)に撮像素子を接続するためのインターフェイスが、本願発明における動画像データ受付部となる。
なお、動画像データ受付部は、動画像データをカメラから直接(例えば、他の装置、機器を経ないで)受取るようになっていても良い。他方、前記動画像データ受付部は、前記動画像データを所定のネットワークを介して前記カメラから受取るようになっていてもよい。この場合、画像処理装置はいわゆるクラウドコンピューティングの技術を利用するものとなる。
この場合、画像処理装置は、カメラとは別体のコンピュータ、或いはカメラと一体となったコンピュータから、ネットワークを介して動画像データを受取り、その動画像データに対して後述するような画像処理を行うことによって生成された二値動画像データを、送信元のコンピュータに返送するか、或いは他の装置に転送することになる。
The image processing apparatus according to the present application is used to extract the range of the pupil from the moving image based on the moving image data, more specifically, from the eyeball reflected in the moving image. However, the purpose of extracting the range of the pupil from the eyeball, or the purpose of using the range of the pupil extracted from the image of the eyeball, is to determine which of the sympathetic nerves and parasympathetic nerves is dominant, It may be to determine the mental and physical state of the person, or it may be other than that.
An image processing apparatus according to the present application includes a moving image data reception unit and receives moving image data from a camera. The moving image data is a sequence of a number of still image data, which are data about still images. Such moving image data is extremely common. A still image based on still image data that constitutes moving image data reflects the eyeball of one eye of the subject.
As described above, the image processing apparatus includes the moving image data receiving section, and the moving image data receiving section receives moving image data from the camera. At this time, the image processing device may be configured separately from the camera or may be configured integrally with the camera. The image processing device configured separately from the camera is configured by, for example, a publicly known computer device such as a desktop or laptop computer, tablet, or smart phone. When the image processing device is configured separately from the camera, a means for connecting the camera and the computer device, for example, a connection terminal in the computer device when the camera and the computer device are wired. However, when the camera and the computer are wirelessly connected, the communication mechanism in the computer (for example, the communication mechanism for communicating by Bluetooth) serves as the moving image data reception section in the present invention. When the image processing device is integrated with the camera, the image processing device is, for example, built in the camera. In this case, the camera is an imaging device (for example, CCD or CMOS) that generates moving image data. The interface for connecting the elements is the moving image data reception section in the present invention.
Note that the moving image data reception unit may receive the moving image data directly from the camera (for example, without passing through other devices or devices). On the other hand, the moving image data receiving section may receive the moving image data from the camera via a predetermined network. In this case, the image processing apparatus uses so-called cloud computing technology.
In this case, the image processing apparatus receives moving image data via a network from a computer separate from the camera or from a computer integrated with the camera, and performs image processing on the moving image data as will be described later. The binary moving image data generated by the operation is returned to the computer that sent it, or is transferred to another device.

本願発明における画像処理装置は、二値化処理部を備えている。この二値化処理部は、動画像データに対して、閾値である特定閾値を用いて二値化の処理を行うものである。それが行う二値化の処理自体は公知或いは周知のもので足りる。二値化処理部は、動画像データ受付部が受付けた動画像データに含まれる静止画像データのうちの少なくとも複数に対して、二値化の処理を行うことで、二値動画像データを生成する。静止画像データのうちの少なくとも複数に対して、二値化の処理を行うというのは、動画像データに基づく動画像のすべての部分について二値化の処理を行わなくても良い、ということを示している。例えば、動画像データ受付部が10秒分の動画像についての動画像データを受付けた場合において、最終的に生成される二値動画像データが、その後半7秒分の動画像についてのものであっても良いというのが、静止画像データのうちの少なくとも複数に対して、二値化の処理を行うという文章の意味するところの一例である。また、動画像データに含まれる多数の静止画像データに対して1つおきに2値化の処理をすることで、最終的に生成される二値動画像データのフレーム数を動画像データのフレーム数の半分にする、というようなことも上記文言の意味するところの他の例となる。画像処理装置のコンピューティングパワーが不足していて、動画像データに含まれるすべての静止画像データに対して二値化の処理を行うのが難しい場合には、このような方法を採用することができる。 An image processing apparatus according to the present invention includes a binarization processing section. This binarization processing unit performs binarization processing on moving image data using a specific threshold value that is a threshold value. The binarization process itself performed by it is known or well-known. The binarization processing unit generates binary moving image data by binarizing at least a plurality of still image data included in the moving image data received by the moving image data receiving unit. do. Performing binarization processing on at least a plurality of pieces of still image data means that it is not necessary to perform binarization processing on all portions of moving images based on moving image data. showing. For example, when the moving image data receiving unit receives moving image data for a moving image for 10 seconds, the finally generated binary moving image data is for the latter half of the moving image for 7 seconds. It is an example of what is meant by the statement that binarization processing is performed on at least a plurality of pieces of still image data. In addition, by binarizing a large number of still image data included in the moving image data every other one, the number of frames of the binary moving image data finally generated can be reduced to the number of frames of the moving image data. Halving a number is another example of what is meant by the above phrase. If the computing power of the image processing device is insufficient and it is difficult to binarize all the still image data contained in the moving image data, such a method can be adopted. can.

公知或いは周知のように、二値化の処理には閾値が必須であるが、二値化処理部で行われる二値化の処理の場合には、閾値として特定閾値が用いられる。本願発明における画像処理装置は、その特定閾値を後述するようにして決定する。二値化の処理を行う際において閾値を決定するための手法として、p-タイル法、モード法等が知られているが、そのような従来の技法を用いて閾値を決定しても、瞳孔と虹彩の境界線を正確に判別することができない。そこで、本願発明における二値化処理部は、以下のようにして動画像データ中の静止画像データに基づく静止画像のうち二値化の対象となるものを、以下のようにして二値化して二値静止画像とするようになっている。
本願の画像処理装置における二値化処理部は、第1処理部と第2処理部とを備えている。第1処理部は、二値化の対象となる複数の静止画像データ基づく静止画像のそれぞれを異なる複数の閾値である仮閾値で二値化することにより、1つの静止画像データから各画素の濃度が極大か極小となるようにされた複数の仮閾値静止画像を生成する。つまり、第1処理部は、ある静止画像を二値化する処理を、閾値を変えながら繰り返すものとされている。その結果生成される二値化された画像が、仮閾値静止画像である。仮閾値静止画像を幾つ作るか、言い換えれば幾つの閾値を用いて静止画像を二値化するかは適宜決定することができるが、例えば、静止画像の各画素に割当てられる極大から極小までの濃度(或いは明度)が0から255の256段階なのであれば、その数を例えば、256とすることができる。もっとも、特定閾値は、濃度のすべての段階で行う必要はなく、例えば、濃度が0から255の256段階なのであれば、その奇数段階目の濃度のみを閾値として用いるとか、特定閾値が含まれることが大凡予想されている濃度範囲のみ、例えば、濃度が0から255の256段階である場合に50から200の範囲の濃度のみを閾値として用いることができる。
他方、第2処理部は、第1処理部で生成された複数の仮閾値静止画像に基づいて、仮閾値が変化しても仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない仮閾値の範囲を特定するとともに、その範囲に含まれる閾値を特定閾値として決定して、複数の仮閾値静止画像のうちの当該特定閾値を用いて二値化されたものを二値静止画像として決定するようになっている。このような方法で特定閾値を、ひいては二値静止画像を決定することができる理由は、次に述べるが如きである。それは、静止画像に映り込んだ例えば人間の瞳孔は、人種等を問わず、虹彩を含む眼球の他の部分よりも明度が低い(濃度が高い)ため、適切な閾値を設定してやれば、静止画像の中から瞳孔のみを抽出することが可能となるという、本願発明者の研究結果に基づく。
眼球が映り込んだある静止画像を極大の濃度から極小の濃度に向けて徐々に小さくなる様々な仮閾値で二値化して仮閾値静止画像にした場合には、仮閾値が徐々に小さくなるにつれて仮閾値静止画像中の濃度が極大となっている範囲の面積は徐々に大きくなっていくが、仮閾値がある程度小さくなると仮閾値の大きさをそれよりも小さくしても仮閾値静止画像中の濃度が極大となっている範囲の面積に変化が生じなくなり、更にある大きさよりも仮閾値が小さくなると今度は閾値が小さくなるに連れて仮閾値静止画像中の濃度が極大となっている範囲の面積がまた徐々に大きくなるという、定型化できる変化が生じることと、閾値の大きさが変化しても仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない場合における仮閾値静止画像中の濃度が極大となっている範囲は、元の静止画像における瞳孔の範囲とよく一致していることと、が判明した。これらによれば、第1処理部で生成された複数の仮閾値静止画像に基づいて、仮閾値が変化しても仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない範囲に含まれるようにして決定された特定閾値を閾値として用いることにより、二値化処理部で行われる二値化の処理を行った結果得られた二値動画像データは、その二値動画像データを構成する二値静止画像データに基づく各二値静止画像が、瞳孔のみを正確に抽出したものとなる。
二値化処理部における第1処理部と第2処理部とは、二値化の対象となる複数の静止画像データに対して、上述の処理を繰り返す。その結果、連続する二値静止画像データによって構成される二値動画像データが生成されるのである。この場合、第1処理部、第2処理部が行う処理は定型化したものであるので、それらが行う処理を自動的に行うことが可能である。
As is well known or well-known, a threshold value is essential for binarization processing, and in the case of binarization processing performed by a binarization processing unit, a specific threshold value is used as the threshold value. The image processing apparatus according to the present invention determines the specific threshold as described later. The p-tile method, the mode method, etc. are known as methods for determining the threshold value when performing the binarization process. and iris boundaries cannot be accurately determined. Therefore, the binarization processing unit in the present invention binarizes still images to be binarized out of still images based on still image data in moving image data as follows. It is designed to be a binary still image.
The binarization processing section in the image processing apparatus of the present application includes a first processing section and a second processing section. The first processing unit binarizes each of the still images based on the plurality of still image data to be binarized with a plurality of different thresholds, that is, provisional thresholds, thereby obtaining the density of each pixel from one piece of still image data. A plurality of provisional threshold still images are generated in which is maximized or minimized. That is, the first processing unit repeats the process of binarizing a certain still image while changing the threshold. The resulting binarized image is the temporary threshold still image. The number of provisional threshold still images to be created, in other words, how many thresholds are used to binarize the still images can be determined as appropriate. If (or lightness) is 256 steps from 0 to 255, the number can be 256, for example. However, the specific threshold does not need to be set at all stages of the density. For example, if the density has 256 levels from 0 to 255, only the odd-numbered density is used as the threshold, or the specific threshold is included. can be used as a threshold only in the range of densities in which is approximately expected;
On the other hand, the second processing unit determines, based on the plurality of temporary threshold still images generated by the first processing unit, that even if the temporary threshold is changed, the area of the range in which the density in the temporary threshold still image is maximum is A range of unchanging provisional thresholds is specified, a threshold included in the range is determined as a specific threshold, and a plurality of provisional threshold still images binarized using the specific threshold are binarized still images. It is determined as an image. The reason why the specific threshold value and thus the binary still image can be determined by such a method will be described below. For example, the human pupil reflected in a still image has a lower brightness (higher density) than other parts of the eyeball, including the iris, regardless of race. This is based on the research result of the inventor of the present application that it is possible to extract only the pupil from the image.
When a still image in which an eyeball is reflected is binarized with various temporary threshold values that gradually decrease from maximum density to minimum density to obtain a temporary threshold still image, as the temporary threshold value gradually decreases, The area of the range in which the density in the temporary threshold still image is maximum gradually increases. When the area of the range in which the density is maximum does not change, and the provisional threshold becomes smaller than a certain size, as the threshold becomes smaller, the area of the range in which the density in the provisional threshold still image is maximized. Temporary threshold when the area of the range where the density in the still image is maximum does not change even if the size of the threshold changes. It has been found that the range of the maximum density in the still image matches well with the range of the pupil in the original still image. According to these, based on the plurality of temporary threshold still images generated by the first processing unit, even if the temporary threshold is changed, the area of the range in which the density in the temporary threshold still image is maximum does not change. Binary moving image data obtained as a result of the binarization processing performed by the binarization processing unit is the binary moving image Each binary still image based on the binary still image data constituting the data is an accurate extraction of only the pupil.
The first processing unit and the second processing unit in the binarization processing unit repeat the above-described processing for a plurality of still image data to be binarized. As a result, binary moving image data composed of continuous binary still image data is generated. In this case, since the processes performed by the first processing section and the second processing section are standardized, the processes performed by them can be automatically performed.

これにより、本願発明における画像処理装置を用いれば、眼球を撮像して生成された動画像データに対して画像処理を行うことにより、自動的且つ正確に動画像中の瞳孔の範囲を抽出することが可能となる。
しかも、この画像処理装置による瞳孔の抽出は、撮像の結果に影響を与えるような撮像の環境の変化が動画像の撮像中に生じる場合においても瞳孔の抽出を正確に行うことが必要なときに特に有効である。例えば、照明光が有る状態と無い状態という2つの状態の環境の変化がカメラによる撮像中に生じる場合がある。或いは、照明光が無い状態での撮像が基本であるが、カメラによる撮像が行われている最中に一時的に照明光がある状態となる場合がある。この場合には、照明光が無い、照明光が有る、そして照明光が無いという3つの状態が生じることになる。このような撮像の環境の変化がある場合、一般に、それぞれの環境で撮像された動画像中の静止画像毎にそれに相応しい特定閾値が必要となる場合がある。
本願発明では、二値化の対象となる静止画像のすべてについて第1処理部と第2処理部とが上述の処理を繰り返すため、撮像の環境に変化があったとしても、二値化の対象となるすべての静止画像を二値化する際において適切な特定閾値が選択される。それにより、この画像処理装置による瞳孔の抽出は、撮像の結果に影響を与えるような撮像の環境の変化が動画像の撮像中に生じる場合においても瞳孔の抽出を正確に行えるものとなる。
Therefore, by using the image processing apparatus of the present invention, the range of the pupil in the moving image can be automatically and accurately extracted by performing image processing on the moving image data generated by imaging the eyeball. becomes possible.
Moreover, the extraction of the pupil by this image processing apparatus is performed when it is necessary to accurately extract the pupil even when a change in the imaging environment that affects the imaging result occurs during the imaging of the moving image. Especially effective. For example, a change in the environment between the presence and absence of illumination light may occur during imaging by a camera. Alternatively, although imaging is basically performed in the absence of illumination light, there are cases where illumination light temporarily exists while the camera is performing imaging. In this case, there will be three states: no illumination, illumination, and no illumination. When there is such a change in imaging environment, in general, there is a case where a specific threshold suitable for each still image in the moving image captured in each environment is required.
In the present invention, the first processing unit and the second processing unit repeat the above-described processing for all still images to be binarized. An appropriate specific threshold is selected in binarizing all still images such that . As a result, pupil extraction by this image processing apparatus can be performed accurately even when a change in imaging environment that affects imaging results occurs during imaging of a moving image.

上述したように、二値化処理部における第2処理部は、第1処理部で生成された複数の仮閾値静止画像に基づいて、仮閾値が変化しても仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない仮閾値の範囲を特定して、その範囲の仮閾値から特定閾値を決定するようになっている。
例えば、前記第2処理部は、前記仮閾値の範囲のうちの中央を含む50%の範囲に含まれるように前記特定閾値を決定するようになっていても良い。そうすることにより、眼球を撮像して生成された動画像データに基づく動画像中の瞳孔の範囲の抽出が、より正確となる。上述の50%の範囲は、30%とするのがより好ましい。もちろん、そうすることによって、眼球を撮像して生成された動画像データに基づく動画像中の瞳孔の範囲の抽出が、更に正確になる。
仮閾値が変化しても仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない仮閾値の範囲における特定閾値の相対的な位置(或いは大きさ)は、すべての静止画像を二値化する際において一定とするのが好ましい。
As described above, the second processing unit in the binarization processing unit, based on the plurality of temporary threshold still images generated by the first processing unit, determines whether the density in the temporary threshold still image is changed even if the temporary threshold changes. A range of temporary thresholds in which the area of the maximum range does not change is specified, and the specific threshold is determined from the temporary thresholds in that range.
For example, the second processing unit may determine the specific threshold so as to be included in a 50% range including the center of the range of the provisional threshold. By doing so, extraction of the range of the pupil in the moving image based on the moving image data generated by imaging the eyeball becomes more accurate. More preferably, the 50% range mentioned above is 30%. Of course, by doing so, the extraction of the range of the pupil in the moving image based on the moving image data generated by imaging the eyeball becomes more accurate.
The relative position (or size) of the specific threshold in the range of the provisional threshold in which the area of the range where the density in the provisional threshold still image is maximum does not change even if the provisional threshold changes, all still images It is preferable to make it constant when binarizing.

本願発明者は、画像処理装置で実行される方法をも本願発明の一態様として提案する。かかる方法による効果は、本願発明による画像処理装置の効果に等しい。
一例となるその方法は、動画を撮像することのできる所定のカメラで撮像されることによって前記カメラによって生成された、被験者の片眼の眼球を含む静止画像についてのデータである静止画像データを多数連ねたものである、動画像のデータである動画像データを受付ける動画像データ受付部を備えるコンピュータで実行される方法である。
そして、この方法は、前記コンピュータが実行する、前記動画像データに含まれる前記静止画像データのうちの少なくとも複数に対して、閾値である特定閾値を用いて二値化の処理を行うことにより、前記静止画像を二値化した画像である二値静止画像のデータである二値静止画像データを多数連ねたものである、動画像のデータである二値動画像データを生成する二値化処理過程、を含んでおり、前記二値化処理過程では、二値化の対象となる複数の前記静止画像データに基づく前記静止画像のそれぞれを異なる複数の閾値である仮閾値で二値化することにより、各画素の濃度が極大か極小となるようにされた複数の仮閾値静止画像を生成する第1処理過程と、前記第1処理過程で生成された複数の前記仮閾値静止画像に基づいて、前記仮閾値が変化しても前記仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない前記仮閾値の範囲を特定するとともに、その範囲に含まれる閾値を前記特定閾値として決定して、複数の前記仮閾値静止画像のうちの当該特定閾値を用いて二値化されたものを前記二値静止画像として決定する第2処理過程と、を実行する。
The inventor of the present application also proposes a method executed by an image processing apparatus as one aspect of the present invention. The effect of such a method is equivalent to that of the image processing apparatus according to the present invention.
An example of the method is to collect a large number of still image data, which is data about a still image including a single eyeball of a subject, generated by a predetermined camera capable of capturing moving images. It is a method executed by a computer having a moving image data reception unit that receives moving image data, which is data of moving images, which is a sequence of moving image data.
Then, in this method, at least a plurality of the still image data included in the moving image data is binarized using a specific threshold value, which is executed by the computer. A binarization process for generating binary moving image data, which is moving image data, which is obtained by connecting a large number of binary still image data, which is binary still image data, which is an image obtained by binarizing the still image. wherein, in the binarization process, each of the still images based on the plurality of still image data to be binarized is binarized with a plurality of temporary thresholds that are different thresholds. a first processing step for generating a plurality of provisional threshold still images in which the density of each pixel is maximized or minimized; and based on the plurality of provisional threshold still images generated in the first processing step, specifying a range of the provisional threshold in which the area of the range in which the density in the provisional threshold still image is maximum does not change even if the provisional threshold changes, and a threshold included in the range is set as the specific threshold. and a second processing step of determining, as the binary still image, one of the plurality of temporary threshold still images binarized using the specific threshold.

本願発明者は、画像処理装置として所定の例えば汎用のコンピュータを機能させるためのコンピュータプログラムをも本願発明の一態様として提案する。かかるコンピュータプログラムによる効果は、本願発明による画像処理装置の効果に等しく、また、本願による画像処理装置として所定のコンピュータを機能させることが可能となることもその効果である。
一例となるそのコンピュータプログラムは、動画を撮像することのできる所定のカメラで撮像されることによって前記カメラによって生成された、被験者の片眼の眼球を含む静止画像についてのデータである静止画像データを多数連ねたものである、動画像のデータである動画像データを受付ける動画像データ受付部を備えたコンピュータを、前記動画像データに含まれる前記静止画像データのうちの少なくとも複数に対して、閾値である特定閾値を用いて二値化の処理を行うことにより、前記静止画像を二値化した画像である二値静止画像のデータである二値静止画像データを多数連ねたものである、動画像のデータである二値動画像データを生成する二値化処理部、を備えており、前記二値化処理部が、二値化の対象となる複数の前記静止画像データに基づく前記静止画像のそれぞれを異なる複数の閾値である仮閾値で二値化することにより、各画素の濃度が極大か極小となるようにされた複数の仮閾値静止画像を生成する第1処理部と、前記第1処理部で生成された複数の前記仮閾値静止画像に基づいて、前記仮閾値が変化しても前記仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない前記仮閾値の範囲を特定するとともに、その範囲に含まれる閾値を前記特定閾値として決定して、複数の前記仮閾値静止画像のうちの当該特定閾値を用いて二値化されたものを前記二値静止画像として決定する第2処理部と、を備えている、画像処理装置として機能させるためのコンピュータプログラムである。
The inventor of the present application also proposes, as one aspect of the present invention, a computer program for causing a predetermined, for example, general-purpose computer to function as an image processing apparatus. The effect of such a computer program is equivalent to the effect of the image processing apparatus according to the present invention, and another effect is that a predetermined computer can be made to function as the image processing apparatus according to the present application.
The computer program, which is an example, generates still image data, which is data about a still image including the eyeball of one eye of a subject, generated by a predetermined camera capable of capturing moving images. A computer having a moving image data receiving unit that receives moving image data, which is data of moving images, which is a sequence of a large number of moving image data, is subjected to a threshold value for at least a plurality of the still image data included in the moving image data. By performing binarization processing using a specific threshold value, a sequence of a large number of binary still image data, which is binary still image data that is an image obtained by binarizing the still image, a binarization processing unit that generates binary moving image data that is image data, wherein the binarization processing unit converts the still image based on a plurality of the still image data to be binarized. a first processing unit that generates a plurality of temporary threshold still images in which the density of each pixel is maximized or minimized by binarizing each of the above with a temporary threshold that is a plurality of different thresholds; Based on a plurality of the provisional threshold still images generated by one processing unit, the provisional threshold is such that even if the provisional threshold is changed, the area of the range in which the density in the provisional threshold still image is maximum does not change. A range is specified, a threshold included in the range is determined as the specific threshold, and one of the plurality of temporary threshold still images binarized using the specific threshold is set as the binary still image. A computer program for functioning as an image processing device, comprising a second processing unit that determines.

第1実施形態による心身の状態の判定システムの全体構成を示す図。1 is a diagram showing the overall configuration of a mental and physical state determination system according to a first embodiment; FIG. 図1に示した心身の状態の判定システムに含まれる眼球撮像装置の頭部の水平断面図。FIG. 2 is a horizontal cross-sectional view of the head of the eye imaging device included in the mental and physical condition determination system shown in FIG. 1 ; 図1に示した心身の状態の判定システムに含まれる眼球撮像装置の垂直断面図。FIG. 2 is a vertical cross-sectional view of an eye imaging device included in the mental and physical state determination system shown in FIG. 1 ; 図1に示したコンピュータ装置のハードウェア構成を示す図。FIG. 2 is a diagram showing the hardware configuration of the computer device shown in FIG. 1; 図2に示したコンピュータ装置の内部に生成される機能ブロックを示すブロック図。FIG. 3 is a block diagram showing functional blocks generated inside the computer device shown in FIG. 2; 図5(A)に示した二値化処理部の内部に生成される機能ブロックの例を示すブロック図。FIG. 6 is a block diagram showing an example of functional blocks generated inside the binarization processing unit shown in FIG. 5A; 図1に示した眼球撮像装置で撮像を行うときにおける照明光と反射光の振る舞いを説明するための図。FIG. 2 is a diagram for explaining the behavior of illumination light and reflected light when imaging is performed by the eyeball imaging device shown in FIG. 1; 図5(B)に示した第1処理部で多数生成される仮閾値静止画像における仮閾値と仮閾値静止画像中の濃度が極大の範囲の面積との関係を示すグラフ。6 is a graph showing the relationship between the provisional threshold values in a large number of provisional threshold value still images generated by the first processing unit shown in FIG. 図1に示したコンピュータ装置で生成されるグラフデータに基づいてディスプレイに表示される画像の一例を概略的に示す図。FIG. 2 is a diagram schematically showing an example of an image displayed on a display based on graph data generated by the computer device shown in FIG. 1; 第2実施形態における被験者の心身の状態の判定システムの全体構成を概略的に示す図。The figure which shows roughly the whole structure of the determination system of a state of mind and body of the subject in 2nd Embodiment. 図9に示したコンピュータ装置内に生成される機能ブロックを示す機能ブロック図。FIG. 10 is a functional block diagram showing functional blocks generated in the computer device shown in FIG. 9; FIG. 図9に示したサーバ内に生成される機能ブロックを示す機能ブロック図。FIG. 10 is a functional block diagram showing functional blocks generated in the server shown in FIG. 9; FIG.

以下、図面を参照しつつ本発明の好ましい第1及び第2実施形態及び変形例について説明する。
両実施形態、及び変形例の説明において、同一の対象には同一の符号を付すものとし、重複する説明は場合により省略するものとする。また、特に矛盾しない限りにおいて、各実施形態及び変形例に記載の技術内容は相互に組み合せることができるものとする。
Preferred first and second embodiments and modifications of the present invention will be described below with reference to the drawings.
In the explanations of both the embodiments and the modifications, the same objects are denoted by the same reference numerals, and overlapping explanations are omitted as the case may be. In addition, the technical content described in each embodiment and modified examples can be combined with each other as long as there is no particular contradiction.

≪第1実施形態≫
図1に、この実施形態における心身の状態の判定システム(以下、単に「判定システム」という場合がある。)の概観を示す。
図1に示したように、判定システムは、眼球撮像装置1と、コンピュータ装置100との組合せにより構成されている。
眼球撮像装置1にはカメラが含まれる。コンピュータ装置100は本願発明における画像処理装置の機能を有する。つまり、この実施形態における心身の状態の判定システムは、本願発明における画像処理装置とカメラとが別体の場合の一例ということになる。
この実施形態における判定システムは、人の心身の状態を判定するための物である。つまり、被験者は人間である。もっとも判定の対象たる被験者は、人間に限らず、人間以外の哺乳動物としても良い。その場合には、以下に説明する眼球撮像装置1の構成(例えば、以下に説明する眼球撮像装置1の頭部の大きさ、形状)が、撮像の対象となる哺乳動物に適切となるように必要に応じて変形される。
<<First Embodiment>>
FIG. 1 shows an overview of the mental and physical condition determination system (hereinafter, sometimes simply referred to as “determination system”) in this embodiment.
As shown in FIG. 1, the determination system is configured by a combination of an eye imaging device 1 and a computer device 100. FIG.
The eyeball imaging device 1 includes a camera. The computer device 100 has the function of the image processing device in the present invention. In other words, the mental and physical state determination system according to this embodiment is an example of the case where the image processing apparatus and the camera according to the present invention are separate bodies.
The judging system in this embodiment is for judging the mental and physical condition of a person. In other words, the subject is human. Of course, the subject to be determined is not limited to humans, and may be mammals other than humans. In that case, the configuration of the eyeball imaging device 1 described below (for example, the size and shape of the head of the eyeball imaging device 1 described below) should be appropriate for the mammal to be imaged. Transformed as needed.

この実施形態における眼球撮像装置1は、被験者たる人間の眼球を撮像して被験者の眼球、より詳細には眼球中の瞳孔の拡縮の状態がその画像に含まれる動画についてのデータである動画像データを生成し、出力する機能を有している。その限りにおいて眼球撮像装置1は、公知或いは周知のもので良い。
この実施形態における眼球撮像装置1は、手持ち可能とされた把持部10と、把持部10の上方前側に設けられた頭部20とを備えている。
把持部10と頭部20は、これには限られないが例えば不透明な樹脂製である。少なくとも頭部20は、不透明な素材でできている必要がある。それらの内部は中空であり、後述するようにしてその内部に種々の部品が内蔵され、或いは取付けられる。把持部10及び頭部20には部品が内蔵されるので、それらは部品が内蔵される事実上のケースとして機能する。
把持部10は、片手で手持ちすることができる形状となっており、これには限られないがこの実施形態では棒状或いは円柱状の形状とされている。
頭部20は先端に向かってやや広がる断面略矩形状のフードと呼べるように構成された筒であり、不透明な素材例えば不透明な樹脂でできている。頭部20の先端(使用時に、被験者の顔に対面される側、図1における手前側)には開口21が設けられている。これには限られないが、この実施形態における開口21は、その四隅が丸められた横長の略矩形である。この眼球撮像装置1は、被験者自身、或いは被験者以外の例えば、医師等がその把持部10を把持して、頭部20の先端の開口21の縁を被験者のいずれかの目の周囲に当接させた状態で用いられる。開口21の縁を隙間なく被験者の目の周りに押付けることにより、頭部20を構成する樹脂が不透明なこともあり、頭部20の内側に外光が入り込まない状態を作り出せるようになっている。
なお、把持部10か頭部20の適当な位置、例えば把持部10の前側には、スイッチ15が設けられている。スイッチ15は、後述する刺激光光源を点灯させる切っ掛けとなる入力を行うための操作子であり、この実施形態では把持部10に押し込んで入力を行う押し釦とされている。もっとも、刺激光光源を点灯させる切っ掛けとなる入力信号を生成することが可能であれば、スイッチ15は押し釦式である必要はない。もっといえば、被験者の目の周囲に頭部20の開口21の縁が押し当てられたことを検出するセンサを用いること等により、被験者或いは医師等の意思によらずに刺激光光源を点灯させることも可能である。そのような構成が採用される場合には、眼球撮像装置1にスイッチ15を設けることは不要となる。
The eyeball imaging device 1 in this embodiment picks up an image of the eyeball of a human subject, and is moving image data, which is data about a moving image in which the image of the subject's eyeball, more specifically, the state of expansion and contraction of the pupil in the eyeball is included in the image. has a function to generate and output As far as that is concerned, the eyeball imaging device 1 may be publicly known or well-known.
An eyeball imaging device 1 in this embodiment includes a grip 10 that can be held by hand, and a head 20 provided on the upper front side of the grip 10 .
The grip part 10 and the head part 20 are made of, for example, an opaque resin, although this is not a limitation. At least the head 20 should be made of an opaque material. Their interiors are hollow, and various components are housed or attached to their interiors as described below. Since the grip part 10 and the head part 20 contain parts, they function as a virtual case in which the parts are contained.
The grip part 10 has a shape that can be held with one hand, and is in the shape of a rod or a cylinder in this embodiment, although the shape is not limited to this.
The head portion 20 is a tube that can be called a hood with a substantially rectangular cross section that widens slightly toward the tip, and is made of an opaque material such as an opaque resin. An opening 21 is provided at the tip of the head 20 (the side facing the subject's face during use, the front side in FIG. 1). Although not limited to this, the opening 21 in this embodiment has a horizontally long substantially rectangular shape with four rounded corners. This eyeball imaging device 1 is configured such that the subject himself/herself or a person other than the subject, such as a doctor, holds the grip portion 10 and abuts the edge of the opening 21 at the tip of the head 20 around one of the eyes of the subject. It is used with the By pressing the edges of the openings 21 around the subject's eyes without any gaps, the resin forming the head 20 is opaque, and it is possible to create a state in which external light does not enter the inside of the head 20. there is
A switch 15 is provided at an appropriate position on the grip portion 10 or the head portion 20 , for example, on the front side of the grip portion 10 . The switch 15 is an operator for performing an input that triggers lighting of a stimulating light source, which will be described later. However, the switch 15 need not be of the push-button type if it is possible to generate an input signal that triggers lighting of the stimulating light source. More specifically, by using a sensor that detects that the edge of the opening 21 of the head 20 is pressed against the eyes of the subject, the stimulation light source is turned on regardless of the intention of the subject or the doctor. is also possible. When such a configuration is employed, it becomes unnecessary to provide the switch 15 in the eyeball imaging device 1 .

図2に眼球撮像装置1における頭部20の水平断面図を、図3に眼球撮像装置1全体の垂直断面図をそれぞれ示す。
頭部20の内部の図1における手前側には、レンズ11、照明光光源31a及び刺激光光源31bと、第1偏光板32とが設けられている。また、頭部20の内部の図1における奥側には、第2偏光板33及び撮像素子12が設けられている。
FIG. 2 shows a horizontal sectional view of the head 20 in the eye imaging device 1, and FIG. 3 shows a vertical sectional view of the entire eye imaging device 1. As shown in FIG.
A lens 11, an illumination light source 31a, a stimulation light source 31b, and a first polarizing plate 32 are provided inside the head 20 on the front side in FIG. A second polarizing plate 33 and an imaging device 12 are provided inside the head 20 on the far side in FIG.

この実施形態において、照明光光源31aは複数である。照明光光源31aは、照明光としての自然光を発するものである。それが可能な限り照明光光源31aは電球、LED等適宜のもので構成することができる。この実施形態における照明光光源31aはこれには限られないがLEDである。照明光光源31aは、ある程度の指向性をもって対象物たる眼球の表面に向けて光を発するようになっている。後述するように、撮像時において、眼球は、開口21の略中央に位置することになるので、各照明光光源31aから照射される光の光軸は、概ね開口21の中央の方向を向いている。それにより、撮像時に眼球が位置することが予定された一定の範囲は、照明光光源31aからの照明光によりある程度一様の明るさで照明されることになる。なお、照明光光源31aは、頭部20に固定された基板に固定されているが、基板の図示は省略している。
照明光光源31aが発する照明光の波長には特に制限はない。一般的な白色光を照明光光源31aが発するようになっていても良い。もっとも、被験者の目へ生理的な影響を与えないように、例えば、照明光の照射が原因となる瞳孔の拡縮が生じないようにすることを重視するのであれば、照明光は不可視な波長の光、例えば赤外領域の波長の光とすべきであり、それには限られないがこの実施形態ではそうされている。より具体的には、この実施形態の照明光光源31aは、赤外領域のうちの特定の波長範囲の波長の光を選択的に発生させるLEDにて構成されている。この実施形態の照明光光源31aが照射する光の波長は、被験者に視認されないことを主な理由に、900nm或いはそれよりも長いものとされている。波長を長くしても、この実施形態における第1偏光板32と第2偏光板33に用いられる直線偏光板(例えば、ワイヤグリッド偏光板)によって、後述するような艶消しの画像を得ることに対する影響は生じない。しかしながら波長が長いと、一般的な撮像素子12による撮像は行いにくくなる。このような点を考慮し、照明光の波長を900nmよりも長い範囲で適当に選択すべきである。この実施形態における照明光光源31aは、これには限られないが、図示せぬスイッチにより電源をONした場合には、常時点灯するようになっている。
上述したように、この実施形態における照明光光源31aは、これには限られないが複数である。各照明光光源31aは、頭部20の開口21付近に位置しており、この実施形態では、開口21の図1における水平方向の両外側における頭部20の壁のやや内側に位置している。開口21の右側と左側に位置する照明光光源31aはそれぞれ、直線状に、より正確には、図1における鉛直方向に、この実施形態では複数個ずつ並んでいる。図3に示したように、開口21の右側において上下方向に並ぶ照明光光源31aの数は5つであり、開口21の左側においても同様である。もっとも、当然に開口21の右側と左側上下方向に並べた照明光光源31aの数は5つずつである必要がなく、もっと言えば複数である必要もない。
他方、刺激光光源31bは、被験者の目へ、被験者が明るさを感じられるような波長の光、言い換えれば被験者の目の瞳孔に拡縮の反応を促すような波長の光である刺激光を照射するための光源である。これには限られないが、この実施形態では、開口21の右側と左側に上述したようにそれぞれ上下に5つずつ並んだ照明光光源31aの上側に、設けられている。もっとも、刺激光光源31bの位置は、被験者の目へ刺激光を照射できるのであればこの限りではない。また、刺激光光源31bから出る刺激光は、第1偏光板32を通過させる必要がないため、第1偏光板32の図1における手前側に位置していても構わない。
この実施形態における刺激光光源31bは通常は点灯しておらず、上述したようにスイッチ15が押された場合に、点灯するようになっている。スイッチ15が押された場合に刺激光光源31bが点灯する時間は短時間で良い。スイッチ15が押された場合に刺激光光源31bが点灯する時間は、例えば、0.1秒から1秒の間から決定することが可能である。この実施形態では、この限りではないが、その時間は、0.5秒となっている。
In this embodiment, there are a plurality of illumination light sources 31a. The illumination light source 31a emits natural light as illumination light. As long as this is possible, the illumination light source 31a can be composed of an appropriate light bulb, LED, or the like. The illumination light source 31a in this embodiment is an LED, although not limited to this. The illumination light source 31a emits light with a certain degree of directivity toward the surface of the eyeball, which is an object. As will be described later, since the eyeball is positioned substantially in the center of the opening 21 during imaging, the optical axis of the light emitted from each illumination light source 31a is directed substantially toward the center of the opening 21. there is As a result, the certain range in which the eyeball is expected to be positioned at the time of imaging is illuminated with a uniform brightness to some extent by the illumination light from the illumination light source 31a. The illumination light source 31a is fixed to a board fixed to the head 20, but illustration of the board is omitted.
The wavelength of the illumination light emitted by the illumination light source 31a is not particularly limited. The illumination light source 31a may emit general white light. However, if it is important not to have a physiological effect on the subject's eyes, for example, to prevent pupil dilation caused by illumination light irradiation, the illumination light should be of an invisible wavelength. The light should be, for example, light of wavelengths in the infrared region, but is not limited to that in this embodiment. More specifically, the illumination light source 31a of this embodiment is composed of an LED that selectively emits light having a wavelength within a specific wavelength range in the infrared region. The wavelength of the light emitted by the illumination light source 31a of this embodiment is set to 900 nm or longer mainly because the light is invisible to the subject. Even if the wavelength is lengthened, the linear polarizers (for example, wire grid polarizers) used for the first polarizer 32 and the second polarizer 33 in this embodiment are used to obtain a matte image as described later. No effect. However, when the wavelength is long, it becomes difficult to perform imaging with a general imaging device 12 . Considering these points, the wavelength of illumination light should be appropriately selected in a range longer than 900 nm. Although not limited to this, the illumination light source 31a in this embodiment is always lit when the power is turned on by a switch (not shown).
As described above, the number of illumination light sources 31a in this embodiment is, but not limited to, plural. Each illumination light source 31a is located near the opening 21 of the head 20, and in this embodiment is located slightly inside the wall of the head 20 on both sides of the opening 21 in the horizontal direction in FIG. . A plurality of illumination light sources 31a located on the right and left sides of the opening 21 are arranged linearly, more precisely, in the vertical direction in FIG. 1 in this embodiment. As shown in FIG. 3, the number of illumination light sources 31a arranged in the vertical direction on the right side of the opening 21 is five, and the number on the left side of the opening 21 is the same. Of course, the number of illumination light sources 31a arranged in the vertical direction on the right side and the left side of the opening 21 need not be five, and moreover, it need not be plural.
On the other hand, the stimulation light source 31b irradiates the eye of the subject with light having a wavelength that allows the subject to perceive brightness, in other words, stimulating light that is light with a wavelength that prompts the pupil of the subject's eye to expand and contract. It is a light source for Although not limited to this, in this embodiment, they are provided above the five illumination light sources 31a arranged vertically on the right and left sides of the opening 21, respectively, as described above. However, the position of the stimulating light source 31b is not limited to this as long as the subject's eyes can be irradiated with the stimulating light. Moreover, since the stimulating light emitted from the stimulating light source 31b does not need to pass through the first polarizing plate 32, it may be positioned on the front side of the first polarizing plate 32 in FIG.
The stimulation light source 31b in this embodiment is normally not lit, but is lit when the switch 15 is pressed as described above. The time period during which the stimulating light source 31b is turned on when the switch 15 is pressed may be short. The time during which the stimulation light source 31b is turned on when the switch 15 is pressed can be determined, for example, from 0.1 seconds to 1 second. In this embodiment, although not limited to this, the time is 0.5 seconds.

頭部20の左右の端付近において上下方向に5つ並んだ照明光光源31a、及び刺激光光源31bの手前にはそれぞれ、それを通過した自然光である照明光及び刺激光を直線偏光にする偏光板である第1偏光板32が1枚ずつ配置されている。この実施形態における第1偏光板32は、図1、図3に示されたように、縦長の矩形であり、その限りではないが、この実施形態では、開口21の下端から上端にわたるようにして開口21の先端付近に配されている。この実施形態では、照明光光源31aから出た光のうち、撮像素子12によって後述するように行われる撮像に寄与する照明光はすべて、第1偏光板32を通過するようになっており、第1偏光板32の幅はその観点から設計されている。なお、撮像素子12による撮像に寄与する照明光がすべて第1偏光板32を通過するようにするために、これには限られないが、この実施形態では、レンズ11の周囲にその内縁が隙間なく接し、且つその外縁が頭部20の内周面に隙間なく接する、ドーナツ型であり光を通さない壁である隔壁19が、頭部20内に設けられている。隔壁19は、頭部20内の空間を、レンズ11の前側の空間と後側の空間とに区切るものである。かかる隔壁19の存在により、各照明光光源31aから発せられた光のうち、第1偏光板32を通過していないものがレンズ11の後側の撮像素子12が存在する空間に到達しないようになる。なお、この実施形態では刺激光光源31bから出た刺激光も第1偏光板32を通過するようになっているが、上述したように刺激光光源31bから出た刺激光は、必ずしも第1偏光板32を通過しなくても良い。
この実施形態における第1偏光板32は、赤外領域の波長の光に対して偏光板として機能するものとなっている。必ずしもこの限りではないが、この実施形態における第1偏光板32は、ワイヤグリッド偏光板である。ワイヤグリッド偏光板は、樹脂の板に、非常に細い金属線を所定間隔で平行に配したものであり、通常の偏光板が偏光板として機能しない赤外領域の波長の光に対しても偏光板として機能する。ワイヤグリッド偏光板の例としては、旭化成イーマテリアルズ株式会社が製造販売する「Asahi Kasei WGF(商標)」を挙げることができる。なお、以上については、第2偏光板33も同じである。
上述したように、第1偏光板32を通過した照明光は直線偏光になる。例えば、第1偏光板32を通過した直線偏光である照明光の偏光面は、図1において水平となるようになっている。
In front of five illumination light sources 31a and five stimulating light sources 31b arranged in the vertical direction near the left and right ends of the head 20, there are polarized light sources that linearly polarize the illumination light and stimulating light, which are natural light that passes through them, respectively. The first polarizing plates 32, which are plates, are arranged one by one. The first polarizing plate 32 in this embodiment, as shown in FIGS. 1 and 3, is a vertically long rectangle. It is arranged near the tip of the opening 21 . In this embodiment, of the light emitted from the illumination light source 31a, all of the illumination light that contributes to imaging performed by the imaging element 12 as described later passes through the first polarizing plate 32. The width of one polarizing plate 32 is designed from that point of view. In this embodiment, the inner edge of the lens 11 is provided with a gap around the lens 11, although not limited to this, so that all illumination light that contributes to imaging by the imaging device 12 passes through the first polarizing plate 32. A donut-shaped partition wall 19 which does not transmit light is provided in the head portion 20. The partition wall 19 is in contact with the inner peripheral surface of the head portion 20 without gaps. The partition wall 19 divides the space inside the head 20 into a space in front of the lens 11 and a space behind the lens 11 . The presence of the partition wall 19 prevents light emitted from each illumination light source 31a that has not passed through the first polarizing plate 32 from reaching the space behind the lens 11 where the imaging element 12 exists. Become. In this embodiment, the stimulating light emitted from the stimulating light source 31b also passes through the first polarizing plate 32, but as described above, the stimulating light emitted from the stimulating light source 31b is not necessarily the first polarized light. It does not have to pass through the plate 32 .
The first polarizing plate 32 in this embodiment functions as a polarizing plate for light with wavelengths in the infrared region. Although not necessarily limited to this, the first polarizing plate 32 in this embodiment is a wire grid polarizing plate. A wire grid polarizer is made by arranging very thin metal wires parallel to a resin plate at predetermined intervals. act as a board. An example of the wire grid polarizer is "Asahi Kasei WGF (trademark)" manufactured and sold by Asahi Kasei E-Materials Corporation. Note that the second polarizing plate 33 is the same as above.
As described above, the illumination light that has passed through the first polarizing plate 32 becomes linearly polarized light. For example, the plane of polarization of illumination light, which is linearly polarized light that has passed through the first polarizing plate 32, is horizontal in FIG.

レンズ11は、照明光が眼球である対象物で反射して生じる反射光を撮像素子12に結像させるためのものである。それが可能な限りにおいて、レンズ11は一枚である必要はないし、レンズ11以外の必要な光学部品を含んでいても良い。また、レンズ11は像の拡大の機能を持っていてもよいし、それ以外の機能を持っていても良い。
撮像素子12は、反射光を捉え撮像を行うものである。この実施形態の撮像素子12は赤外領域の波長の光による撮像を行えるものであればどのようなものでも構わない。撮像素子12は例えばCCD、或いはCMOSにより構成することができる。撮像素子12は撮像により得た画像のデータを生成する。撮像素子12が撮像する画像は、動画である。撮像素子は、眼球を撮像して、動画像のデータである動画像データを生成する。動画像データによる動画には、被験者の眼球が映り込んでおり、瞳孔の拡縮が分かるものとなる。動画像データは、静止画像についてのデータである静止画像データを多数連ねたものとなる。
撮像素子12は、接続線12aにて回路13に接続されている。回路13は撮像素子12が生成した画像のデータを接続線12aを介して撮像素子12から受取るようになっている。回路13は、ビデオ信号の外部への出力に先んじて必要な処理、例えば明るさの調整や、必要であればアナログ/デジタル変換などを行う。
回路13は接続線13aを介して出力端子14に接続されている。出力端子14は、図示を省略のケーブル16を介して、コンピュータ装置100との接続を行うものである。ケーブル16と出力端子14との接続はどのように行われても良いが、例えば、USBその他の規格化された接続方式を用いるのが便利であろう。なお、眼球撮像装置1によって生成された動画像データのコンピュータ装置100への出力は、この実施形態のように有線で行われる必要はない。動画像データの出力が無線で行われる場合には、眼球撮像装置1は、出力端子14に代えて、例えばBluetooth(商標)による通信をコンピュータ装置100と行うための公知或いは周知の通信機構を備えることになる。もちろん、コンピュータ装置100との接続を、有線と無線の双方で行えるようにすることも可能である。
回路13は、また、上述したスイッチ15に接続線15aによって接続されている。スイッチ15からの入力信号を受けた回路13は、刺激光光源31bを点灯させるようになっている。
The lens 11 is for forming an image on the imaging element 12 of the reflected light generated by the illumination light being reflected by the object, which is the eyeball. As long as it is possible, the lens 11 does not have to be a single piece, and may include necessary optical parts other than the lens 11 . Further, the lens 11 may have the function of enlarging the image, or may have other functions.
The imaging device 12 captures the reflected light and performs imaging. The imaging device 12 of this embodiment may be of any type as long as it can perform imaging with light having a wavelength in the infrared region. The imaging device 12 can be configured by, for example, a CCD or a CMOS. The imaging device 12 generates image data obtained by imaging. An image captured by the imaging device 12 is a moving image. The imaging device images an eyeball and generates moving image data, which is moving image data. The subject's eyeball is reflected in the moving image based on the moving image data, and the enlargement and contraction of the pupil can be understood. Moving image data is a sequence of a large number of still image data, which are data about still images.
The imaging element 12 is connected to the circuit 13 by a connection line 12a. The circuit 13 receives image data generated by the imaging device 12 from the imaging device 12 via a connection line 12a. Prior to outputting the video signal to the outside, the circuit 13 performs necessary processing such as brightness adjustment and analog/digital conversion if necessary.
Circuit 13 is connected to output terminal 14 via connection line 13a. The output terminal 14 connects to the computer device 100 via a cable 16 (not shown). The cable 16 and the output terminal 14 may be connected in any way, but it would be convenient to use a standardized connection method such as USB, for example. It should be noted that the moving image data generated by the eye imaging device 1 does not need to be output to the computer device 100 by wire as in this embodiment. When moving image data is output wirelessly, the eye imaging device 1 is provided with a known or well-known communication mechanism for communicating with the computer device 100 by Bluetooth (trademark), for example, instead of the output terminal 14. It will be. Of course, it is also possible to make the connection with the computer device 100 both wired and wireless.
Circuit 13 is also connected by connection 15a to switch 15 described above. The circuit 13 that receives the input signal from the switch 15 turns on the stimulation light source 31b.

第2偏光板33は、上述したように第1偏光板32と同じものでできているものの、その機能が第1偏光板32と異なる。第2偏光板33は、第1偏光板32によって直線偏光とされた照明光が眼球である対象物の表面で反射することによって生じた反射光のうちの眼球の表面で反射された光である表面反射光に含まれる直線偏光の成分を遮断する機能を有している。
照明光と反射光の光軸を軸として見れば、第1偏光板32と第2偏光板33とは、それらを通過した光の直線偏光における偏光面が直交するような向きとなるようになっている。この実施形態でいえば、自然光が第2偏光板33を反射光と同じ向きで通過した場合、第2偏光板33を通過することによって生じた直線偏光の偏光面は、図1における鉛直方向となるようになっている。
眼球からの反射光は、レンズ11を通り、更には第2偏光板33を通過してから撮像素子12で撮像される。したがって、撮像素子12で撮像に寄与する光は、反射光のうち、第2偏光板33を通過できる成分のみとなる。なお、第2偏光板33は、撮像素子12と対象物との間の反射光の光路上に存在すれば良く、例えば、レンズ11の眼球側に存在しても良いし、また、例えばレンズ11が複数枚のレンズからなるのであれば、複数枚のレンズの間に位置しても良い。
Although the second polarizing plate 33 is made of the same material as the first polarizing plate 32 as described above, its function is different from that of the first polarizing plate 32 . The second polarizing plate 33 is the light reflected by the surface of the eyeball out of the reflected light generated by the reflection of the illumination light linearly polarized by the first polarizing plate 32 on the surface of the object, which is the eyeball. It has the function of blocking the linearly polarized light component contained in the surface reflected light.
When viewed with the optical axes of the illumination light and the reflected light as axes, the first polarizing plate 32 and the second polarizing plate 33 are oriented such that the planes of polarization of the linearly polarized light passing through them are orthogonal to each other. ing. In this embodiment, when the natural light passes through the second polarizing plate 33 in the same direction as the reflected light, the plane of polarization of the linearly polarized light generated by passing through the second polarizing plate 33 is the vertical direction in FIG. It is designed to be
Reflected light from the eyeball passes through the lens 11 and further through the second polarizing plate 33 and is imaged by the imaging element 12 . Therefore, the light that contributes to imaging by the imaging element 12 is only the component of the reflected light that can pass through the second polarizing plate 33 . The second polarizing plate 33 may be present on the optical path of the reflected light between the imaging element 12 and the object. is composed of a plurality of lenses, it may be positioned between the plurality of lenses.

次に、コンピュータ装置100について説明する。
コンピュータ装置100は、一般的なコンピュータであり、市販のもので良い。この実施形態におけるコンピュータ装置100は、これには限られないが市販のタブレットである。なお、コンピュータ装置100は、以下に記載する構成、機能を備えている限り、必ずしもタブレットである必要はなく、スマートフォンや、ノート型パソコン、デスクトップ型パソコン等であっても構わない。スマートフォンや、パソコンである場合においても、コンピュータ装置100は市販のものであっても良い。タブレットとしては、例えば、Apple Japan合同会社が製造、販売を行うiPad(商標)シリーズを挙げることができる。スマートフォンとしては、例えば、同社が製造、販売を行うiPhone(商標)シリーズを挙げることができる。
Next, the computer device 100 will be described.
The computer device 100 is a general computer, and may be a commercially available one. Computing device 100 in this embodiment is, but is not limited to, a commercially available tablet. Note that the computer device 100 does not necessarily have to be a tablet as long as it has the configuration and functions described below, and may be a smartphone, a notebook computer, a desktop computer, or the like. Even in the case of a smart phone or a personal computer, the computer device 100 may be commercially available. Examples of tablets include the iPad (trademark) series manufactured and sold by Apple Japan LLC. Examples of smartphones include the iPhone (trademark) series manufactured and sold by the company.

コンピュータ装置100の外観は、図1に示されている。
コンピュータ装置100は、ディスプレイ101を備えている。ディスプレイ101は、静止画又は動画、一般的にはその双方を表示するためのものであり、公知、或いは周知のものを用いることができる。ディスプレイ101は例えば、液晶ディスプレイである。コンピュータ装置100は、また入力装置102を備えている。入力装置102は、ユーザが所望の入力をコンピュータ装置100に対して行うためのものである。入力装置102は、公知或いは周知のものを用いることができる。この実施形態におけるコンピュータ装置100の入力装置102はボタン式のものとなっているが、これには限られず、テンキー、キーボード、トラックボール、マウスなどを用いることも可能である。特に、コンピュータ装置100がノート型パソコン、デスクトップ型パソコンである場合には、入力装置102はキーボードや、マウス等になるであろう。また、ディスプレイ101がタッチパネルである場合、ディスプレイ101は入力装置102の機能を兼ねることになり、この実施形態ではそうされている。
The appearance of computer device 100 is shown in FIG.
The computer device 100 has a display 101 . The display 101 is for displaying still images or moving images, or generally both of them, and a publicly known one can be used. The display 101 is, for example, a liquid crystal display. Computing device 100 also includes an input device 102 . The input device 102 is used by the user to make desired inputs to the computer device 100 . The input device 102 can use a publicly known or well-known device. Although the input device 102 of the computer device 100 in this embodiment is of a button type, it is not limited to this, and it is also possible to use a numeric keypad, keyboard, trackball, mouse, or the like. In particular, if the computer device 100 is a notebook computer or desktop computer, the input device 102 may be a keyboard, mouse, or the like. Also, when the display 101 is a touch panel, the display 101 also functions as the input device 102, which is the case in this embodiment.

コンピュータ装置100のハードウェア構成を、図4に示す。
ハードウェアには、CPU(central processing unit)111、ROM(read only memory)112、RAM(random access memory)113、インターフェイス114が含まれており、これらはバス115によって相互に接続されている。
CPU111は、演算を行う演算装置である。CPU111は、例えば、ROM112、或いはRAM113に記録されたコンピュータプログラムを実行することにより、後述する処理を実行する。図示をしていないが、ハードウェアはHDD(hard disk drive)その他の大容量記録装置を備えていてもよく、コンピュータプログラムは大容量記録装置に記録されていても構わない。
ここでいうコンピュータプログラムには、本願発明の判定装置の1つとしてこのコンピュータ装置100を機能させるためのコンピュータプログラムが少なくとも含まれる。このコンピュータプログラムは、コンピュータ装置100にプリインストールされていたものであっても良いし、コンピュータ装置100の出荷後にインストールされたものであっても良い。このコンピュータプログラムのコンピュータ装置100へのインストールは、メモリカード等の所定の記録媒体を介して行なわれても良いし、LAN或いはインターネットなどのネットワークを介して行なわれても構わない。
ROM112は、CPU111が後述する処理を実行するために必要なコンピュータプログラムやデータを記録している。ROM112に記録されたコンピュータプログラムとしては、これに限られず、コンピュータ装置100がタブレットなのであれば、コンピュータ装置100をタブレットとして機能させるために必要な、例えば、電子メールを実行するためのコンピュータプログラムやデータが記録されている。コンピュータ装置100は、また、インターネット上のホームページを閲覧することも可能とされており、それを可能とするための公知或いは周知のwebブラウザを実装している。
RAM113は、CPU111が処理を行うために必要なワーク領域を提供する。場合によっては、上述のコンピュータプログラムやデータが記録されていてもよい。
インターフェイス114は、バス115で接続されたCPU111やRAM113等と外部との間でデータのやり取りを行うものである。インターフェイス114には、上述のディスプレイ101と、入力装置102とが接続されている。入力装置102から入力された操作内容についてのデータは、インターフェイス114からバス115に入力されるようになっている。また、周知のようにディスプレイ101に画像を表示するための画像データは、インターフェイス114から、ディスプレイ101に出力されるようになっている。インターフェイス114は、また、上述したケーブル16から(正確には、ケーブル16と接続されたコンピュータ装置100が備える図示せぬ入力端子から)、動画像データを受付けるようになっている。ケーブル16から入力された動画像データは、インターフェイス114からバス115に送られるようになっている。
A hardware configuration of the computer device 100 is shown in FIG.
The hardware includes a CPU (central processing unit) 111 , a ROM (read only memory) 112 , a RAM (random access memory) 113 and an interface 114 , which are interconnected by a bus 115 .
The CPU 111 is an arithmetic device that performs arithmetic operations. The CPU 111 executes a process described later by executing a computer program recorded in the ROM 112 or the RAM 113, for example. Although not shown, the hardware may include a HDD (hard disk drive) or other large-capacity recording device, and the computer program may be recorded on the large-capacity recording device.
The computer program referred to here includes at least a computer program for causing this computer device 100 to function as one of the determination devices of the present invention. This computer program may be pre-installed in the computer device 100 or may be installed after the computer device 100 is shipped. The installation of this computer program in the computer device 100 may be performed via a predetermined recording medium such as a memory card, or may be performed via a network such as a LAN or the Internet.
The ROM 112 records computer programs and data necessary for the CPU 111 to execute processing described later. The computer program recorded in the ROM 112 is not limited to this, and if the computer device 100 is a tablet, a computer program and data necessary for making the computer device 100 function as a tablet, for example, for executing e-mail. is recorded. The computer device 100 is also capable of browsing homepages on the Internet, and is equipped with a known or well-known web browser for enabling this.
A RAM 113 provides a work area necessary for the CPU 111 to perform processing. In some cases, the computer programs and data described above may be recorded.
The interface 114 exchanges data between the CPU 111, the RAM 113, and the like connected via the bus 115 and the outside. The display 101 and the input device 102 are connected to the interface 114 . Data about the operation content input from the input device 102 is input to the bus 115 from the interface 114 . Also, as is well known, image data for displaying an image on the display 101 is output from the interface 114 to the display 101 . The interface 114 also receives moving image data from the cable 16 described above (more precisely, from an input terminal (not shown) of the computer device 100 connected to the cable 16). Moving image data input from the cable 16 is sent from the interface 114 to the bus 115 .

CPU111がコンピュータプログラムを実行することにより、コンピュータ装置100の内部には、図5(A)で示されたような機能ブロックが生成される。なお、以下に説明する機能ブロックは、コンピュータ装置100を本願発明の画像処理装置の1つとして機能させるための上述のコンピュータプログラム単体の機能により生成されていても良いが、上述のコンピュータプログラムと、コンピュータ装置100にインストールされたOSその他のコンピュータプログラムとの協働により生成されても良い。
コンピュータ装置100には、本願発明の機能との関係で、入力部121、二値化処理部122、グラフ生成部123、出力部124が生成される。
As the CPU 111 executes the computer program, functional blocks as shown in FIG. 5A are generated inside the computer device 100 . Note that the functional blocks described below may be generated by the function of the above-described computer program alone for causing the computer device 100 to function as one of the image processing devices of the present invention, but the above-described computer program, It may be generated in cooperation with an OS installed in the computer device 100 or other computer programs.
In the computer device 100, an input unit 121, a binarization processing unit 122, a graph generation unit 123, and an output unit 124 are generated in relation to the functions of the present invention.

入力部121は、インターフェイス114から、データを受付けるものである。入力部121が受付けるデータは、入力装置102から入力された操作内容のデータと、ケーブル16から入力された動画像データである。入力部121は、それらデータをインターフェイス114を介して受取った場合、それを二値化処理部122に送るようになっている。
二値化処理部122は、入力部121から受付けた動画像データに基いて、二値動画像データを生成するものである。二値化処理部122は、動画像データ或いはその一部に対して二値化の処理を行うことで二値動画像データを生成するものである。二値化処理部122内には、第1処理部122B1、及び第2処理部122B2が生成される。第1処理部122B1、及び第2処理部122B2の機能も含めて、二値化処理部122の機能及び二値化処理部122が生成する二値動画像データの詳細については後述する。二値化処理部122は、生成した二値動画像データを、グラフ生成部123に対して送るようになっている。また、場合によっては、二値化処理部122から出力部124に、二値動画像データが送られうる。
グラフ生成部123は、二値動画像データを受取った場合、それに基いて、瞳孔の拡縮を示すグラフのデータであるグラフデータを生成するものである。グラフ生成部123の機能、及びグラフ生成部123が生成するグラフデータの詳細については後述する。グラフ生成部123は、生成したグラフデータを、出力部124に対して送るようになっている。
出力部124は、グラフデータに基づく画像、または、場合によっては二値動画像データに基づく画像についての画像データを、インターフェイス114を介してディスプレイ101に出力するものである。出力部124は、グラフデータ又は二値動画像データに基づいてディスプレイ101に画像を表示させるための画像データを生成する機能を有している。画像データを受取ったディスプレイ101には、グラフデータ又は二値動画像データに対応した画像が表示されることになる。
Input unit 121 receives data from interface 114 . Data received by the input unit 121 are operation content data input from the input device 102 and moving image data input from the cable 16 . When the input unit 121 receives the data via the interface 114 , it sends the data to the binarization processing unit 122 .
The binarization processing unit 122 generates binary moving image data based on the moving image data received from the input unit 121 . The binarization processing unit 122 generates binary moving image data by performing binarization processing on moving image data or part thereof. In the binarization processing section 122, a first processing section 122B1 and a second processing section 122B2 are generated. Details of the functions of the binarization processing unit 122 and the binary moving image data generated by the binarization processing unit 122, including the functions of the first processing unit 122B1 and the second processing unit 122B2, will be described later. The binarization processing unit 122 sends the generated binary moving image data to the graph generation unit 123 . Also, in some cases, binary moving image data can be sent from the binarization processing unit 122 to the output unit 124 .
When the binary moving image data is received, the graph generation unit 123 generates graph data, which is data of a graph showing the expansion and contraction of the pupil, based on the received binary moving image data. Details of the functions of the graph generation unit 123 and the graph data generated by the graph generation unit 123 will be described later. The graph generator 123 sends the generated graph data to the output unit 124 .
The output unit 124 outputs image data of an image based on graph data or, in some cases, an image based on binary moving image data to the display 101 via the interface 114 . The output unit 124 has a function of generating image data for displaying an image on the display 101 based on graph data or binary moving image data. An image corresponding to the graph data or the binary moving image data will be displayed on the display 101 that has received the image data.

次に、以上で説明した判定システムの使用方法、及び動作を説明する。
判定システムを用いる場合には、まず、上述したように、ケーブル16で、眼球撮像装置1とコンピュータ装置100とを接続する。両者を接続すると、この実施形態では、眼球撮像装置1の照明光光源31aが点灯する。眼球撮像装置1に電源スイッチを設けておき、その電源スイッチをONにすることで照明光光源31aが点灯するようになっていてもよい。
その状態で、被験者又は医師等がその把持部10を把持し、その頭部20における開口21の縁を、被験者の片目の周囲に押し当てる。このとき、開口21の周囲から頭部20の内部に外光が入り込まないように、被験者の目の周囲と開口21の縁との間に隙間ができないように注意する。
Next, the method of use and operation of the determination system described above will be described.
When using the determination system, first, as described above, the eyeball imaging device 1 and the computer device 100 are connected with the cable 16 . When both are connected, in this embodiment, the illumination light source 31a of the eyeball imaging device 1 lights up. A power switch may be provided in the eyeball imaging device 1, and the illumination light source 31a may be turned on by turning on the power switch.
In this state, the subject, a doctor, or the like grips the grip portion 10 and presses the edge of the opening 21 in the head 20 around one eye of the subject. At this time, care should be taken not to leave a gap between the periphery of the subject's eyes and the edge of the opening 21 so that external light does not enter the inside of the head 20 from the periphery of the opening 21 .

照明光光源31aから出た照明光は、第1偏光板32を通過してから、開口21の略中央に位置する眼球で反射し、レンズ11及び第2偏光板33を通過して撮像素子12に至る。撮像素子12は、眼球からの反射光を捉え、撮像を行う。その結果、撮像素子12は、瞳孔の拡縮の状態がわかるような状態で被験者の眼球が映っている動画像についてのデータである動画像データを生成する。被験者の片眼の眼球を含む静止画像についてのデータである静止画像データを多数連ねたものとなる。この実施形態で使用される照明光の波長は上述したように、被験者の目には見えない赤外領域の波長であるから、照明光の影響によって被験者の目の瞳孔が拡縮することはない。
動画像データは、接続線12aを介して回路13へ送られ、回路13で必要に応じて適当な処理(明るさの調整等)をなされてから接続線13aを介して出力端子14に至る。そして、出力端子14からケーブル16を経て、コンピュータ装置100へと至るようになっている。動画像データは眼球撮像装置1からコンピュータ装置100へと常に送られていても良いが、この実施形態では、動画像データは、常に眼球撮像装置1からコンピュータ装置100へと送られているわけではない。動画像データは、後述するように、必要な時間帯の分だけが眼球撮像装置1からコンピュータ装置100へと送られるようになっている。
Illumination light emitted from the illumination light source 31 a passes through the first polarizing plate 32 , is reflected by the eyeball positioned substantially in the center of the opening 21 , passes through the lens 11 and the second polarizing plate 33 , and reaches the image sensor 12 . up to. The imaging device 12 picks up reflected light from the eyeball and takes an image. As a result, the imaging device 12 generates moving image data, which is data about moving images in which the subject's eyeballs are captured in a state in which the state of dilation and contraction of the pupil can be seen. A large number of still image data, which are data of still images including the eyeball of one eye of the subject, are connected. As described above, the wavelength of the illumination light used in this embodiment is in the infrared region, which is invisible to the subject's eyes.
The moving image data is sent to the circuit 13 via the connection line 12a, and after being subjected to appropriate processing (such as brightness adjustment) in the circuit 13, reaches the output terminal 14 via the connection line 13a. The output terminal 14 is connected to the computer device 100 via the cable 16 . The moving image data may be constantly sent from the eyeball imaging device 1 to the computer device 100, but in this embodiment, the moving image data is not always sent from the eyeball imaging device 1 to the computer device 100. do not have. As will be described later, the moving image data is sent from the eyeball imaging device 1 to the computer device 100 only for the necessary time period.

照明光光源31aからの照明光によって撮像素子12で撮像される反射光がどのようなものかということを、概念的に図6に示す。
図6(A)は眼球の最表面で反射する反射光である表面反射光を、図6(B)は眼球の表面から若干眼球内に入って反射する反射光である内部反射光の振る舞いを示している。また、太線の○印の中に引かれた直線は当該部分における照明光又は反射光の偏光面の向きを観念的に示しており、○印の中に放射状に線が引かれているのは当該部分における照明光又は反射光の直線偏光性が乱れている(例えば自然光化している。)ことを示している。
照明光光源31aから出た照明光は、第1偏光板32を通過する。第1偏光板32を通過した照明光は直線偏光になる。その場合の照明光である直線偏光の偏光面は、図1における水平方向である。ここまでは、図6(A)、(B)で共通である。
第1偏光板32を通過した直線偏光である照明光は、眼球Xに当たり、眼球Xからの反射光となる。眼球Xの表面で反射した反射光のうち表面反射光は、その偏光状態が理想的には維持されたままである。直線偏光である表面反射光は、自然光を通過させたときに生じる直線偏光の偏光面の向きが第1偏光板32と直交するようにされている第2偏光板33に遮断され、撮像素子12には届かない(図6(A))。
他方、内部反射光は、その偏光状態が乱れている。内部反射光は、その中に含まれる光のうち、表面反射光に含まれる直線偏光の偏光面と直交する方向で振動するものが、第2偏光板33を通過するので、その半分程度が撮像素子12に到達することになる(図6(B))。
結果として、照明光光源31aからの照明光を用いて撮像素子12が画像を撮像するために利用される光は、内部反射光のみということになる。これがどのようなことを意味するかというと、撮像素子12が撮像を行うことにより生成される画像は艶消し画像になるということである。つまり、撮像素子12が撮像する動画像には、例えば、照明光光源31aそれ自体が映り込むことがなく、眼球そのものの状態が正確に映し出されたものとなる。これは、当該動画像から瞳孔の大きさを例えば画像処理により把握するのに大きく役立つ。
FIG. 6 conceptually shows what kind of reflected light is imaged by the imaging element 12 by the illumination light from the illumination light source 31a.
FIG. 6(A) shows surface reflected light, which is reflected light from the outermost surface of the eyeball, and FIG. 6(B) shows the behavior of internally reflected light, which is reflected light that enters the eyeball slightly from the surface of the eyeball and is reflected. showing. In addition, the straight line drawn in the thick ○ mark conceptually indicates the direction of the plane of polarization of the illumination light or the reflected light in the relevant part, and the radial lines drawn in the ○ mark indicate This indicates that the linear polarization of the illumination light or the reflected light in the portion is disturbed (for example, it is natural light).
The illumination light emitted from the illumination light source 31 a passes through the first polarizing plate 32 . The illumination light that has passed through the first polarizing plate 32 becomes linearly polarized light. The plane of polarization of the linearly polarized light, which is the illumination light in that case, is the horizontal direction in FIG. The steps up to this point are common to FIGS. 6A and 6B.
The illumination light, which is linearly polarized light that has passed through the first polarizing plate 32, hits the eyeball X and becomes reflected light from the eyeball X. As shown in FIG. Of the light reflected by the surface of the eyeball X, the surface-reflected light ideally maintains its polarization state. The surface-reflected light, which is linearly polarized light, is blocked by the second polarizing plate 33 , which is set so that the direction of the plane of polarization of the linearly polarized light generated when natural light passes through is orthogonal to that of the first polarizing plate 32 . (Fig. 6(A)).
Internally reflected light, on the other hand, has its polarization state disturbed. Of the light contained in the internally reflected light, the part that oscillates in a direction perpendicular to the plane of polarization of the linearly polarized light contained in the surface reflected light passes through the second polarizing plate 33, so about half of it is captured. It reaches the element 12 (FIG. 6(B)).
As a result, only the internally reflected light is used for the imaging element 12 to capture an image using the illumination light from the illumination light source 31a. What this means is that the image generated by the imaging device 12 is a matte image. In other words, the moving image captured by the imaging device 12 does not reflect the illumination light source 31a itself, and the state of the eyeball itself is accurately captured. This is very useful for grasping the size of the pupil from the moving image, for example, by image processing.

医師等は、眼球撮像装置1の頭部20における開口21の縁を被験者の片目の周囲に押し当てた状態で、把持部10に設けられたスイッチ15を押す。この状態でも、被験者の目は暗順応していない。スイッチ15を押すと、スイッチ15で生成された入力信号が回路13に送られ、回路13が刺激光光源31bに刺激光を照射させる。刺激光は、上述したように、この実施形態ではこれには限られないが0.5秒間照射される。
刺激光光源31bから出た刺激光は、第1偏光板32を通過してから、開口21の略中央に位置する眼球で反射し、レンズ11及び第2偏光板33を通過して撮像素子12に至る。刺激光光源31bから出て眼球で反射した刺激光も、照明光の場合と同様に内部反射光のみが撮像素子12に至ることになる。もっとも、撮像素子12は、そもそも刺激光の波長の光の撮像を行わないようになっているので、刺激光、或いは刺激光に基づく画像は撮像素子12では撮像されない。
撮像素子12は、この実施形態では、常に、例えば、眼球撮像装置1がケーブル16によってコンピュータ装置100に接続されているときは常に、上述のような動画像データを生成するようになっている。この動画像データは、常に回路13へと送られている。回路13には、図示せぬ上書き記録部が内臓されており、上書き記録部は常に動画像データを上書きしつつ保存している。このような上書き記録部は、例えば、公知或いは周知のリングバッファにより構成することができる。上述したように、撮像素子12で生成された動画像データのうち、コンピュータ装置100で後述する判定を行うのに必要な分に対応する動画像データが、コンピュータ装置100へ送られる。上書き記録部には、コンピュータ装置100へ送られるその必要な分の動画像データに対応した動画像よりも長い時間の動画像に対応する動画像データが記録される。例えば、コンピュータ装置100に送られる動画像データに対応する動画像が最長で6秒間分なのであれば、上書き記録部に記録されている動画像データを、過去の6秒間分よりも長い、例えば過去の10秒分の動画像に対応する動画像データとすればよい。もちろんこれには限られないが、とりあえずこの実施形態では、眼球撮像装置1からコンピュータ装置100へと送られる動画像データに対応する動画像は、最長で6秒間分であるものとする。
上述のように、スイッチ15が押されるとそれによりスイッチ15で生成された入力信号が回路13に送られる。これを受取った回路13は、上述したように刺激光光源31bを点灯させるとともに、スイッチ15が押された瞬間において上書き記録部に記録されていた過去1秒分の動画像についての動画像データ、及びスイッチ15が押された瞬間から後の5秒間分の動画像についての動画像データを、6秒間分の動画像データとして上書き記録部から読み出す。
つまり、このようにして、回路13は、スイッチ15が押された場合に、スイッチ15が押された瞬間と事実上同時である刺激光光源31bが刺激光の照射を開始した瞬間を基準として、その前1秒間、その後5秒間の合計6秒間分の動画像についての動画像データを生成し、それを接続線13aを介して出力端子14へ送る。かかる6秒間分の動画像データは、ケーブル16を介して眼球撮像装置1からコンピュータ装置100へと送られることになる。
回路13に、刺激光光源31bが刺激光の照射を開始した瞬間を基準として、その前1秒間、その後5秒間の合計6秒間分の動画像についての動画像データを生成させるには、上述の上書き記録部は必須でない。例えば、スイッチ15から回路13に上述した入力信号の入力があった瞬間の1秒後に回路13が刺激光光源31bに刺激光の照射を開始させるとともに、回路13がスイッチ15から入力信号が入力された瞬間から6秒間分の動画像についての動画像データを出力端子14に送るようになっていれば、回路13は、刺激光光源31bが刺激光の照射を開始した瞬間を基準として、その前1秒間、その後5秒間の合計6秒間分の動画像についての動画像データを生成することになる。
The doctor or the like presses the switch 15 provided on the grip part 10 while pressing the edge of the opening 21 in the head 20 of the eye imaging device 1 around one eye of the subject. Even in this state, the subject's eyes are not dark-adapted. When the switch 15 is pressed, the input signal generated by the switch 15 is sent to the circuit 13, and the circuit 13 causes the stimulating light source 31b to irradiate the stimulating light. The stimulating light is applied for 0.5 seconds, although in this embodiment it is not limited to this, as described above.
The stimulating light emitted from the stimulating light source 31b passes through the first polarizing plate 32, is reflected by the eyeball positioned substantially in the center of the opening 21, passes through the lens 11 and the second polarizing plate 33, and reaches the imaging element 12. up to. Of the stimulating light emitted from the stimulating light source 31b and reflected by the eyeball, only the internally reflected light reaches the imaging element 12 as in the case of the illumination light. However, since the imaging element 12 does not pick up light of the wavelength of the stimulating light in the first place, the imaging element 12 does not pick up the stimulating light or an image based on the stimulating light.
The imaging device 12 is adapted in this embodiment to always generate moving image data as described above, for example whenever the eye imaging device 1 is connected to the computer device 100 by the cable 16 . This moving image data is always sent to the circuit 13 . The circuit 13 incorporates an overwrite recording unit (not shown), and the overwrite recording unit always overwrites moving image data while storing it. Such an overwrite recording unit can be configured by, for example, a well-known ring buffer. As described above, of the moving image data generated by the imaging device 12 , the moving image data corresponding to the amount necessary for the computer device 100 to perform the determination described later is sent to the computer device 100 . In the overwrite recording section, moving image data corresponding to a longer time moving image than the moving image corresponding to the necessary amount of moving image data sent to the computer device 100 is recorded. For example, if the moving image corresponding to the moving image data sent to the computer device 100 has a maximum length of 6 seconds, the moving image data recorded in the overwrite recording unit may be changed to a length longer than the past 6 seconds. 10 seconds worth of moving image data. Of course, it is not limited to this, but for the time being, in this embodiment, the moving image corresponding to the moving image data sent from the eye imaging device 1 to the computer device 100 shall be six seconds at the longest.
As described above, when switch 15 is pressed, the input signal generated by switch 15 is sent to circuit 13 . The circuit 13 receiving this turns on the stimulating light source 31b as described above, and at the moment when the switch 15 is pressed, the moving image data of the moving image for the past one second recorded in the overwrite recording unit, Then, the moving image data of the moving image for 5 seconds after the moment when the switch 15 is pressed is read from the overwrite recording section as the moving image data for 6 seconds.
In other words, in this manner, when the switch 15 is pressed, the circuit 13, with reference to the moment when the stimulating light source 31b starts irradiating the stimulating light, which is substantially the same as the moment when the switch 15 is pressed, Moving image data for a total of 6 seconds, i.e., 1 second before and 5 seconds after, is generated and sent to the output terminal 14 via the connection line 13a. The moving image data for 6 seconds is sent from the eye imaging device 1 to the computer device 100 via the cable 16 .
In order to cause the circuit 13 to generate moving image data for a total of 6 seconds, i.e., 1 second before and 5 seconds after the moment when the stimulating light source 31b starts irradiating stimulating light, the above-described An overwrite record part is not required. For example, the circuit 13 causes the stimulating light source 31b to start irradiating the stimulating light one second after the moment when the above-described input signal is input from the switch 15 to the circuit 13, and the circuit 13 receives the input signal from the switch 15. If the moving image data of the moving image for 6 seconds from the moment the stimulating light source 31b starts emitting the stimulating light is used as the reference, Moving image data for a moving image for a total of 6 seconds, i.e., 1 second followed by 5 seconds, is generated.

いずれにせよ、この実施形態では6秒分の長さとされた動画像についての動画像データは、ケーブル16を介して眼球撮像装置1からコンピュータ装置100に送られる。その動画像データは、インターフェイス114から、コンピュータ装置100内の入力部121に送られる。
入力部121は受取った動画像データを二値化処理部122に送る。動画像データを受取った二値化処理部122は、動画像データに基いて、二値動画像データを生成する。
In any case, the moving image data of the moving image having a length of 6 seconds in this embodiment is sent from the eye imaging device 1 to the computer device 100 via the cable 16 . The moving image data is sent from the interface 114 to the input unit 121 in the computer device 100 .
The input unit 121 sends the received moving image data to the binarization processing unit 122 . Upon receiving the moving image data, the binarization processing unit 122 generates binary moving image data based on the moving image data.

二値化処理部122が動画像データから二値動画像データを生成する際の処理は以下のようなものである。
二値化処理部122が動画像データを受取ると、動画像データに含まれる多数の静止画像データのうちのうちの二値化の対象となるものが、二値化処理部122内の第1処理部122B1に送られる。動画像データに含まれる多数の静止画像データのうちのどれが第1処理部122B1に送られるようになっているかは適当に決定することができるが、第1処理部122B1に送られる静止画像データは少なくとも複数である。
第1処理部122B1は静止画像データを受取ると、複数の互いに異なる仮閾値を閾値として、静止画像データに基づく静止画像を二値化して、複数の仮閾値静止画像とする。複数の仮閾値静止画像はいずれも、各画素の濃度が極大か極小となるようにされる。仮閾値は、上述のように複数である。各画素に割当てられ得る濃度が仮に0~255の256段階なのであれば(これには限られないがこの実施形態では、静止画像の各画素に割当てられる濃度は0~255の256段階であるものとする。)、仮閾値としては、濃度0~濃度255までの最大で256個を採用することが可能である。もっとも、この場合においても、追って決定される特定閾値の精度がそれ程求められないのであれば、2、4、6…という偶数の濃度値のみを仮閾値とするとか、奇数の濃度値のみを仮閾値とするとか、3の倍数の濃度値のみを仮閾値とするということも可能である。特定閾値が含まれることが大凡予想されている濃度値の範囲(後述するSの範囲が含まれ得る範囲)が明確なのであれば、その範囲、例えば、濃度が0から255の256段階である場合に50から200の範囲の濃度のみを閾値として用いることも可能である。この場合には、仮閾値静止画像の数は、256個よりも減る。この実施形態では、仮閾値として、濃度0~濃度255までの256個を用いるものとする。そうすると、第1処理部122B1は、256個の仮閾値静止画像を生成することになる。第1処理部122B1は、その256個の仮閾値静止画像についての仮閾値静止画像データを、第2処理部122B2に引き渡す。
Processing when the binarization processing unit 122 generates binary moving image data from moving image data is as follows.
When the binarization processing unit 122 receives the moving image data, among a large number of still image data included in the moving image data, those to be binarized are selected by the first binarization processing unit 122 . It is sent to the processing unit 122B1. It is possible to appropriately determine which of the large number of still image data included in the moving image data is to be sent to the first processing unit 122B1. is at least plural.
When receiving the still image data, the first processing unit 122B1 binarizes the still image based on the still image data using a plurality of mutually different provisional threshold values as threshold values to obtain a plurality of provisional threshold value still images. Each of the plurality of provisional threshold still images is made such that the density of each pixel is maximized or minimized. There are multiple temporary thresholds as described above. If the density that can be assigned to each pixel is 256 steps from 0 to 255 (although not limited to this, in this embodiment, the density assigned to each pixel of a still image is 256 steps from 0 to 255). ), and a maximum of 256 temporary threshold values from density 0 to density 255 can be adopted. However, even in this case, if the accuracy of the specific threshold value to be determined later is not so high, only even density values such as 2, 4, 6, . . . It is also possible to use a threshold value, or to use only density values that are multiples of 3 as provisional threshold values. If the range of density values in which the specific threshold is generally expected to be included (the range that can include the range of S described later) is clear, the range, for example, the density is 256 steps from 0 to 255 It is also possible to use only densities in the range of 50 to 200 as thresholds. In this case, the number of provisional threshold still images is less than 256. In this embodiment, 256 values from density 0 to density 255 are used as provisional thresholds. Then, the first processing unit 122B1 generates 256 provisional threshold still images. The first processing unit 122B1 transfers the provisional threshold still image data for the 256 provisional threshold still images to the second processing unit 122B2.

第2処理部122B2は、第1処理部122B1で生成された複数(この実施形態では256個)の仮閾値静止画像に基づいて、仮閾値が変化しても仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない仮閾値の範囲を特定するとともに、その範囲に含まれるようにして特定閾値を決定する。そして、第2処理部122B1は、その範囲に含まれる閾値を特定閾値として決定して、同一の静止画像データに基づく静止画像から作られた複数の仮閾値静止画像のうちの当該特定閾値を用いて二値化されたものを二値静止画像として決定する。
上述したようにして第1処理部122B1で生成された閾値を255とした仮閾値静止画像は、元の静止画像の画素のうち、濃度値が255であった画素のみが濃度値が極大(255)であり、それ以外の画素はすべて濃度値が極小(0)となるようなものとなる。閾値を254とした仮閾値静止画像は、元の静止画像の画素のうち、濃度値が255と254であった画素のみが濃度値が極大(255)であり、それ以外の画素はすべて濃度値が極小(0)となるようなものとなる。閾値を253とした仮閾値静止画像は、元の静止画像の画素のうち、濃度値が255から253であった画素のみが濃度値が極大(255)であり、それ以外の画素はすべて濃度値が極小(0)となるようなものとなる。つまり、仮閾値を濃度値極大の状態から下げていくと、濃度値が極大となる範囲(面積)はだんだん増えていく。
しかしながら、この関係は仮閾値を小さくし続けていっても保たれるものではなく、仮閾値をそれ以上小さくしても濃度値が極大となる範囲(面積)が増えない状態となる。この状態は、元の静止画像中の瞳孔の部分に存在する画素のみの濃度値が極大となっている状態である。
その状態はしばらく続くが、仮閾値をある程度以上小さくすると、また、濃度値が極大となる範囲(面積)が増えはじめる。
仮閾値の大きさと、仮閾値静止画像中の濃度値が極大となっている範囲の面積を概略的に図に示すと、図7に示したようになる。図7においてSで示した範囲が、仮閾値が変化しても仮閾値静止画像中の濃度値が極大となっている範囲の面積が変化しない範囲である。第2処理部122B2は、そのSの範囲を特定し、そのSの範囲の中で特定閾値を決定する。Sの範囲の中でどう特定閾値を決定しても良いが、この実施形態における第2処理部122B2は、Sの範囲の中央を含む(中央を中心とする)50%の範囲に含まれるように特定閾値を決定するようになっていても良く、より好ましくはSの範囲の中央を含む(中央を中心とする)30%の範囲に含まれるように特定閾値を決定するようになっている。この実施形態では、Sの範囲の中央の閾値を仮閾値として決定するようになっている。特定閾値に端数が出た場合には、例えば端数を繰り上げる、繰り下げる等の適当な処理を行えば良い。Sの範囲のどの閾値を特定閾値とするのか(例えば、Sの範囲の中央の値に相当する閾値を特定閾値とするとか、Sの範囲の中央から10%下の値に相当する閾値を特定閾値とするといった取り決めがこれに当たる。)は、二値化の対象となる静止画像データから特定閾値を求める場合、或いは静止画像データを二値静止画像データに変換する場合のすべてについて、同一とすべきである。
以上のようにして、第2処理部122B2で特定閾値が決定される。
次いで、第2処理部122B2は、1つの静止画像から多数作られた仮閾値静止画像のうち、特定閾値で二値化された仮閾値静止画像を、その静止画像を二値化した画像である二値静止画像と決定する。
Based on a plurality of (256 in this embodiment) provisional threshold still images generated by the first processing unit 122B1, the second processing unit 122B2 determines whether the density in the provisional threshold still image is maximum even if the provisional threshold changes. A temporary threshold range in which the area of the range does not change is specified, and a specific threshold is determined so as to be included in the range. Then, the second processing unit 122B1 determines a threshold included in the range as a specific threshold, and uses the specific threshold among a plurality of temporary threshold still images created from still images based on the same still image data. Then, the binary still image is decided as the binary still image.
In the provisional threshold value still image generated by the first processing unit 122B1 as described above with the threshold value set to 255, among the pixels of the original still image, only the pixels having the density value of 255 have the maximum density value (255 ), and the density values of all other pixels are minimal (0). In the temporary threshold still image with a threshold of 254, among the pixels of the original still image, only the pixels with density values of 255 and 254 have the maximum density value (255), and all other pixels have density values of 255 and 254. is the minimum (0). In the temporary threshold still image with a threshold of 253, among the pixels of the original still image, only the pixels with density values between 255 and 253 have the maximum density value (255), and all other pixels have density values of 255 and 253. is the minimum (0). In other words, when the temporary threshold value is lowered from the maximum density value, the range (area) where the density value is maximum gradually increases.
However, this relationship is not maintained even if the provisional threshold value is continuously reduced, and even if the provisional threshold value is further reduced, the range (area) where the density value becomes maximum does not increase. This state is a state in which the density value of only the pixels existing in the pupil portion in the original still image is maximized.
This state continues for a while, but when the temporary threshold value is reduced to a certain extent or more, the range (area) where the density value becomes maximum begins to increase.
FIG. 7 schematically shows the size of the provisional threshold value and the area of the range where the density value in the provisional threshold still image is maximum. A range indicated by S in FIG. 7 is a range in which the area of the range where the density value in the temporary threshold still image is maximum does not change even if the temporary threshold changes. The second processing unit 122B2 identifies the range of S and determines a specific threshold within the range of S. Although any specific threshold may be determined within the range of S, the second processing unit 122B2 in this embodiment sets the , more preferably, the specific threshold is determined so as to be included in a 30% range (centered at the center) including the center of the range of S . In this embodiment, the threshold in the middle of the range of S is determined as the provisional threshold. If there is a fraction in the specific threshold value, appropriate processing such as rounding up or rounding down the fraction may be performed. Which threshold in the range of S is the specific threshold (for example, the threshold corresponding to the middle value of the range of S is the specific threshold, or the threshold corresponding to the value 10% below the middle of the range of S is specified) ) is the same for all cases of obtaining a specific threshold from still image data to be binarized, or converting still image data into binary still image data. should.
As described above, the specific threshold value is determined by the second processing unit 122B2.
Next, the second processing unit 122B2 selects a provisional threshold still image binarized with a specific threshold among a large number of provisional threshold still images created from one still image as an image obtained by binarizing the still image. Binary still image is determined.

以上の処理を第1処理部122B1と第2処理部122B2とが繰り返すことによって、二値化の処理の対象となる静止画像は、次々と二値静止画像へと変換されていく。つまり、二値化の対象となる静止画像は、第1処理部122B1で多数の仮閾値静止画像に変化し、その中の1つが第2処理部122B2で1つの二値静止画像として選択されるのである。
二値化処理部122は、動画像データに含まれるすべての静止画像について二値化の処理を行っても良いし、動画像データに含まれる静止画像についてのすべてではない複数に対して二値化の処理を行っても良い。例えば、上述した6秒分の動画像データのうち、最初の0.5秒分についての静止画像については二値化の処理を行わないようにしても良い。この実施形態では、6秒分の動画像データのすべてに対応する静止画像ついて、二値化処理部122は二値化の処理を行う。静止画像を二値化したのが二値化静止画像であり、二値化静止画像のデータが二値化静止画像データである。そして二値化静止画像データを連ねたものが、二値動画像データである。
二値化処理部122は生成した二値動画像データをグラフ生成部123へと送る。二値化処理部122は、すべての二値静止画像データが揃ってから、二値静止画像データをグラフ生成部123へ送っても良いし、二値静止画像データが生成されるごとにそれを順次グラフ生成部123へ送っても良い。いずれにせよ、グラフ生成部123は二値動画像データを受取ることになる。
By repeating the above processing by the first processing unit 122B1 and the second processing unit 122B2, still images to be binarized are converted into binary still images one after another. That is, the still image to be binarized is changed into a large number of provisional threshold still images by the first processing unit 122B1, and one of them is selected as one binary still image by the second processing unit 122B2. of.
The binarization processing unit 122 may binarize all still images included in the moving image data, or may binarize a plurality of still images included in the moving image data. You may perform processing of conversion. For example, of the moving image data for 6 seconds, the still image for the first 0.5 seconds may not be binarized. In this embodiment, the binarization processing unit 122 performs binarization processing on still images corresponding to all six seconds of moving image data. A binarized still image is a binarized still image, and data of the binarized still image is binarized still image data. Binary moving image data is a series of binary still image data.
The binarization processing unit 122 sends the generated binary moving image data to the graph generation unit 123 . The binarization processing unit 122 may send the binary still image data to the graph generation unit 123 after all the binary still image data is prepared, or may send the binary still image data to the graph generation unit 123 each time the binary still image data is generated. You may send to the graph generation part 123 one by one. In any case, the graph generator 123 receives the binary moving image data.

グラフ生成部123は、二値動画像データを受取った場合、それに基いて、瞳孔の拡縮を示すグラフのデータであるグラフデータを生成するものである。上述したように、各静止画像は、既に二値化されており、各静止画像中で濃度が極大となっている範囲は、元々の静止画像中に映り込んでいた瞳孔の範囲に対応している。
したがって、各二値静止画像中の濃度が極大となっている範囲の面積を求めるとそれは、各静止画像における瞳孔の大きさに対応する。例えば、時間を横軸、その時点における瞳孔の大きさ(例えば、面積)を縦軸としたグラフのデータであるグラフデータを、グラフ生成部123は生成する。
グラフ生成部123は、生成したグラフデータを、出力部124に対して送るようになっている。
出力部124は、グラフデータに基づく画像についての画像データを、インターフェイス114を介してディスプレイ101に出力するものである。出力部124は、グラフデータに基づいてディスプレイ101に画像を表示させるための画像データを生成し、その画像データをディスプレイ101に出力する。その画像データを受取ったディスプレイ101には、グラフデータに対応した画像が表示されることになる。その画像の一例を図8に示す。図8において、横軸に時間、縦軸は瞳孔の大きさ(面積)に対応する。瞳孔の拡縮の様子が線グラフとして表現されている。これには限られないがこの実施形態では、瞳孔の拡縮の様子を線グラフとして表すようなグラフデータが、グラフ生成部123で生成されるものとする。横軸の1目盛りは1秒である。横軸において、網掛けされている時間帯がある。その時間帯は、刺激光光源31bから刺激光が照射されている時間帯である。刺激光を眼球が受けると瞳孔は縮小し、その後徐々に元の大きさに近づいてくる。このグラフに基づいて被験者において交感神経と副交感神経のいずれが優勢かということや、被験者の心身の状態等を判定することができる。
なお、例えば、入力装置102からの入力に基づいて、二値動画像データに基づく二値動画像をディスプレイ101に表示することが可能である。その場合には、二値動画像データが二値化処理部122から出力部124へと送られ、出力部124が二値動画像データに基づく動画像をディスプレイ101に表示させるための画像データを生成する。その画像データがインターフェイス114を介してディスプレイ101に出力されると、ディスプレイ101に二値動画像が表示されることになる。かかる説明から明らかなように、この実施形態でも、本願発明でも、二値動画像データの画像処理装置から他の装置(例えば、ディスプレイ)への出力は、行われても良いが必須ではない。
この被験者の心身の状態の判定システムは、判定システムと称しているものの、判定に必要なグラフをディスプレイ101に表示するにとどまる。例えば、コンピュータ装置100に、そのグラフから被験者の心身の状態を人の手を借りずに判定するための機能を更に与えることも可能である。
When the binary moving image data is received, the graph generation unit 123 generates graph data, which is data of a graph showing the expansion and contraction of the pupil, based on the received binary moving image data. As described above, each still image has already been binarized, and the range where the density is maximum in each still image corresponds to the range of the pupil reflected in the original still image. there is
Therefore, when the area of the range in which the density is maximized in each binary still image is obtained, it corresponds to the size of the pupil in each still image. For example, the graph generation unit 123 generates graph data, which is graph data in which the horizontal axis is time and the vertical axis is the pupil size (for example, area) at that time.
The graph generator 123 sends the generated graph data to the output unit 124 .
The output unit 124 outputs image data for an image based on graph data to the display 101 via the interface 114 . Output unit 124 generates image data for displaying an image on display 101 based on the graph data, and outputs the image data to display 101 . An image corresponding to the graph data is displayed on the display 101 that receives the image data. An example of the image is shown in FIG. In FIG. 8, the horizontal axis corresponds to time, and the vertical axis corresponds to the size (area) of the pupil. The state of expansion and contraction of the pupil is expressed as a line graph. Although not limited to this, in this embodiment, the graph generation unit 123 generates graph data representing a state of expansion and contraction of the pupil as a line graph. One division on the horizontal axis is one second. There are shaded time zones on the horizontal axis. The time zone is a time zone during which stimulation light is emitted from the stimulation light source 31b. When the eyeball receives the stimulating light, the pupil shrinks and then gradually approaches its original size. Based on this graph, it is possible to determine which of the sympathetic nerves and parasympathetic nerves is dominant in the subject, and determine the state of mind and body of the subject.
For example, it is possible to display a binary moving image based on binary moving image data on the display 101 based on an input from the input device 102 . In that case, the binary moving image data is sent from the binarization processing unit 122 to the output unit 124, and the output unit 124 outputs image data for displaying the moving image based on the binary moving image data on the display 101. Generate. When the image data is output to the display 101 via the interface 114, the display 101 displays a binary moving image. As is clear from the above description, in both this embodiment and the present invention, the output of binary moving image data from the image processing device to another device (for example, a display) may be performed, but is not essential.
Although this system for judging the mental and physical conditions of a subject is called a judging system, it only displays graphs necessary for judging on the display 101 . For example, the computing device 100 can be further provided with a function for determining the subject's mental and physical condition from the graph without human intervention.

<変形例1>
変形例1の被験者の心身の状態の判定システムは、概ね第1実施形態と同じである。
変形例1の判定システムも、第1実施形態の場合と同様に、眼球撮像装置1と、コンピュータ装置100とを含んで構成されている。
変形例1の判定システムと、第1実施形態の場合における判定システムとで異なるのは、第1実施形態ではコンピュータ装置100内に存在していた二値化処理部122が、変形例1では、眼球撮像装置1内に存在するというものである。当然に、変形例1では、第1実施形態ではコンピュータ装置100内にあった二値化処理部122が省略される。
第1実施形態では、撮像素子12が生成した動画像データから、回路13が第1実施形態では6秒間分とされた必要な長さの動画像に対応した動画像データを生成し、それがコンピュータ装置100に送られるようになっており、動画像データを受け取ったコンピュータ装置100内の二値化処理部122で動画像データに基いて二値動画像データが、またグラフ生成部123で二値動画像データに基いてグラフデータがそれぞれ生成されるようになっていた。
それに対して、変形例1では、撮像素子12が生成した動画像データから、回路13が第1実施形態では6秒間分の動画像に対応するものとされた動画像データを生成するとともに、これも眼球撮像装置1内に存在する二値化処理部122で動画像データに基いて二値動画像データを生成する。つまり、変形例1では、二値動画像データの生成までの処理を眼球撮像装置1内で行う。そして、眼球撮像装置1で生成された二値動画像データを、眼球撮像装置1からコンピュータ装置100へと、例えばケーブル16を介して送る。コンピュータ装置100内で、コンピュータ装置100が受け取った二値動画像データはインターフェイス114を介してグラフ生成部123へと送られ、グラフ生成部123で瞳孔拡縮データに基づいてグラフデータが生成されることになる。以後の処理は、第1実施形態と同じである。
二値化処理部122、グラフ生成部123の機能、二値動画像データ、グラフデータの内容は、第1実施形態と変形例1とで変更の必要がない。
なお、変形例1で眼球撮像装置1内に存在する二値化処理部122は、回路13内に存在しても良いし、回路13の後段に設けられても構わない。二値化処理部122は例えば、第1実施形態の場合と同様に、コンピュータプログラムによって生成された機能ブロックであっても良い。その場合、回路13は、図4に示されたようなハードウェア構成を備えるものであっても良く、その場合には回路13内に二値化処理部122が生成されることになろう。
更に、グラフ生成部123もコンピュータ装置100内ではなく、眼球撮像装置1内に設けることも可能である。この場合には、眼球撮像装置1から出力されるのはグラフデータになる。その場合、グラフデータは、コンピュータ装置100を介して、或いはコンピュータ装置100を介さずに直接、ディスプレイ101に送られることになろう。
<Modification 1>
The psychosomatic state determination system of the subject of Modification 1 is generally the same as that of the first embodiment.
The determination system of Modification 1 also includes the eye imaging device 1 and the computer device 100, as in the case of the first embodiment.
The difference between the determination system of Modification 1 and the determination system of the first embodiment is that the binarization processing unit 122 that existed in the computer device 100 in the first embodiment is replaced with It exists in the eyeball imaging device 1 . Naturally, in Modification 1, the binarization processing unit 122 included in the computer device 100 in the first embodiment is omitted.
In the first embodiment, from the moving image data generated by the imaging device 12, the circuit 13 generates moving image data corresponding to the required length of the moving image, which is six seconds in the first embodiment. The binarization processing unit 122 in the computer device 100 that receives the moving image data generates binary moving image data based on the moving image data. Graph data is generated based on the value moving image data.
On the other hand, in Modification 1, the circuit 13 generates, from the moving image data generated by the imaging device 12, moving image data corresponding to the moving image for 6 seconds in the first embodiment, and this Binary moving image data is generated based on the moving image data by the binarization processing unit 122 that is also present in the eyeball imaging device 1 . That is, in Modification 1, processing up to the generation of binary video data is performed within the eye imaging device 1 . Then, the binary moving image data generated by the eyeball imaging device 1 is sent from the eyeball imaging device 1 to the computer device 100 via the cable 16, for example. In the computer device 100, the binary moving image data received by the computer device 100 is sent to the graph generator 123 via the interface 114, and the graph generator 123 generates graph data based on the pupil dilation data. become. Subsequent processing is the same as in the first embodiment.
The functions of the binarization processing unit 122 and the graph generation unit 123, the contents of the binary moving image data, and the graph data need not be changed between the first embodiment and the first modification.
Note that the binarization processing unit 122 that exists in the eyeball imaging device 1 in Modification 1 may exist in the circuit 13 or may be provided in the latter stage of the circuit 13 . The binarization processing unit 122 may be, for example, a functional block generated by a computer program, as in the first embodiment. In that case, the circuit 13 may have a hardware configuration as shown in FIG.
Furthermore, the graph generator 123 can also be provided in the eye imaging device 1 instead of in the computer device 100 . In this case, graph data is output from the eyeball imaging device 1 . In that case, the graph data would be sent to the display 101 via the computing device 100 or directly without the computing device 100 .

≪第2実施形態≫
第2実施形態の被験者の心身の状態の判定システムは、基本的に第1実施形態と同じである。
第2実施形態の判定システムも、第1実施形態の場合と同様に、眼球撮像装置1と、コンピュータ装置100とを含んで構成されている。ただし、第2実施形態の判定システムは、図9に示したように、ネットワーク300を介してコンピュータ装置100と通信可能とされたサーバ200を含んでいる。ネットワーク300は例えばインターネットである。
<<Second embodiment>>
The psychosomatic state determination system of the subject of the second embodiment is basically the same as that of the first embodiment.
The determination system of the second embodiment also includes the eye imaging device 1 and the computer device 100 as in the case of the first embodiment. However, the determination system of the second embodiment includes a server 200 capable of communicating with the computer device 100 via the network 300, as shown in FIG. Network 300 is, for example, the Internet.

第2実施形態における眼球撮像装置1は、第1実施形態における眼球撮像装置1とまったく同じものとすることができ、これには限られないが、この実施形態ではそうされている。つまり、第2実施形態の眼球撮像装置1が出力するのは、上述したような、これには限られないが6秒間分の動画像データである。 The eye imaging device 1 in the second embodiment can be exactly the same as the eye imaging device 1 in the first embodiment, but is not limited to this in this embodiment. In other words, what the eyeball imaging device 1 of the second embodiment outputs is moving image data for 6 seconds, although not limited to this, as described above.

他方、第2実施形態におけるコンピュータ装置100は、第1実施形態におけるコンピュータ装置100とはその一部が明確に異なる。
まず、第2実施形態におけるコンピュータ装置100は、通信の機能を有している。より詳細には、第2実施形態におけるコンピュータ装置100は、例えばインターネットであるネットワーク300を介して、サーバ200と通信を行うことが可能となっている。
第2実施形態におけるコンピュータ装置100のハードウェア構成は、第1実施形態で説明した図4に示したものと同じであるが、かかるハードウェアに含まれたインターフェイス114は、ネットワーク300を介して外部と通信を行うための公知の手段である送受信機構(図示を省略)に接続されている。送受信機構の機能によって、コンピュータ装置100は、ネットワーク300を介してデータを送信することと、ネットワーク300を介してデータを受信することとが可能になっている。かかるネットワーク300を介してのデータの送受信は、有線で行われる場合もあるが無線で行われる場合もある。例えば、コンピュータ装置100がスマートフォンやタブレットである場合には、かかる通信は無線で行われるのが通常であろう。それが可能な限り、送受信機構の構成は、公知或いは周知のものとすることができる。送受信機構がネットワーク300から受取ったデータは、インターフェイス114により受取られるようになっており、インターフェイス114から送受信機構にわたされたデータは、送受信機構によって、ネットワーク300を介してサーバ200に送られるようになっている。
また、第2実施形態のコンピュータ装置100内には第1実施形態の場合と同様に機能ブロックが生成されるが、その機能ブロックには、図10に示したように二値化処理部122が存在しない。この点でも、第2実施形態と第1実施形態のコンピュータ装置100は異なる。
On the other hand, a part of the computer device 100 in the second embodiment is clearly different from the computer device 100 in the first embodiment.
First, the computer device 100 in the second embodiment has a communication function. More specifically, the computer device 100 in the second embodiment can communicate with the server 200 via a network 300 such as the Internet.
The hardware configuration of the computer device 100 in the second embodiment is the same as that shown in FIG. It is connected to a transmitting/receiving mechanism (not shown) which is a known means for communicating with. The functionality of the transceiver mechanism allows computing device 100 to transmit data over network 300 and to receive data over network 300 . Transmission and reception of data via the network 300 may be performed by wire or wirelessly. For example, if computing device 100 is a smart phone or tablet, such communication would typically be wireless. To the extent that is possible, the configuration of the transceiver mechanism may be known or known. Data received by the transceiver from the network 300 is received by the interface 114, and data passed from the interface 114 to the transceiver is sent by the transceiver to the server 200 via the network 300. It's becoming
Also, functional blocks are generated in the computer device 100 of the second embodiment in the same manner as in the first embodiment, and the functional blocks include the binarization processing unit 122 as shown in FIG. not exist. In this point as well, the computer device 100 of the second embodiment differs from that of the first embodiment.

サーバ200は、公知、或いは周知の或いは市販のサーバ装置で良い。そのハードウェア構成は極一般的なもので良く、例えば図4に示したようなものとすることができ、この実施形態ではそうされている。もっとも、サーバ200は、HDDその他の大容量記録媒体を備えているのが通常であろう。
サーバ200も、ネットワーク300を介して通信を行うことが可能となっている。サーバ200は、コンピュータ装置100が備えるのと同様の公知或いは周知の送受信機構を備えており、それを介してネットワーク300を介して、コンピュータ装置100とデータの送受信を行えるようになっている。サーバ200が備えるインターフェイスは、送受信機構(図示を省略)に接続されている。送受信機構の機能によって、サーバ200は、ネットワーク300を介してデータを送信することと、ネットワーク300を介してデータを受信することとが可能になっている。送受信機構がネットワーク300から受取ったデータは、インターフェイスにより受取られるようになっており、インターフェイスから送受信機構にわたされたデータは、送受信機構によって、ネットワーク300を介して外部、コンピュータ装置100に送られるようになっている。
サーバ200内には、コンピュータプログラムを実行することにより、図11に示されたような機能ブロックが生成される。第2実施形態においてサーバ200内に生成される機能ブロックは、入力部221、二値化処理部222、出力部224である。
入力部221は、ネットワーク300を介して、サーバ200の送受信機構がコンピュータ装置100から後述するように受け取った動画像データを、インターフェイスを介して受取るものである。入力部221は受け取った動画像データを二値化処理部222に送るようになっている。
二値化処理部222は、第1実施形態における二値化処理部122と同じ機能を持っており、第1実施形態の場合と同様に、受け取った動画像データから、二値動画像データを生成するようになっている。二値化処理部222は、第1実施形態の二値化処理部122内に存在した第1処理部122B1及び第2処理部122B2と同じ機能をそれぞれ有する第1処理部及び第2処理部(いずれも図示を省略)を備えており、それらの機能によって、動画像データから、二値動画像データを生成することが可能となっている。二値化処理部222は生成した二値動画像データを出力部224へ送るようになっている。
出力部224は、二値動画像データを、インターフェイスを介してサーバ200の送受信機構に送るものである。それを受け取ったサーバ200の送受信機構は、ネットワーク300を介して、コンピュータ装置100に二値動画像データを返信するようになっている。
The server 200 may be any known or known or commercially available server device. The hardware configuration may be very general, and may be, for example, as shown in FIG. 4, which is the case in this embodiment. However, the server 200 is normally equipped with a HDD or other large-capacity recording medium.
The server 200 can also communicate via the network 300 . The server 200 has a known or well-known transmission/reception mechanism similar to that of the computer device 100 , and can transmit and receive data to and from the computer device 100 via the network 300 . An interface provided in the server 200 is connected to a transmission/reception mechanism (not shown). The functionality of the transceiver mechanism allows the server 200 to transmit data over the network 300 and receive data over the network 300 . Data received by the transceiver mechanism from the network 300 is received by the interface, and data passed from the interface to the transceiver mechanism is sent by the transceiver mechanism to the outside via the network 300 to the computer device 100. It has become.
By executing a computer program in the server 200, functional blocks as shown in FIG. 11 are generated. Functional blocks generated in the server 200 in the second embodiment are an input unit 221 , a binarization processing unit 222 , and an output unit 224 .
The input unit 221 receives moving image data received from the computer device 100 via the network 300 by the transmitting/receiving mechanism of the server 200 via the interface. The input unit 221 sends the received moving image data to the binarization processing unit 222 .
The binarization processing unit 222 has the same function as the binarization processing unit 122 in the first embodiment, and converts the received moving image data into binary moving image data as in the first embodiment. It is designed to generate The binarization processing unit 222 includes a first processing unit and a second processing unit ( (both are not shown), and these functions enable binary moving image data to be generated from moving image data. The binarization processing unit 222 sends the generated binary moving image data to the output unit 224 .
The output unit 224 sends the binary moving image data to the transmission/reception mechanism of the server 200 via an interface. The transmitting/receiving mechanism of the server 200 that has received it returns the binary moving image data to the computer device 100 via the network 300 .

第2実施形態の判定システムの使用方法、及び動作を説明する。
まず、眼球撮像装置1の使用方法と動作であるが、これは第1実施形態の場合と変わらない。眼球撮像装置1では、撮像素子12が生成した動画像データに基づいて、第1実施形態では6秒間分とされた必要な長さの動画像に対応した動画像データを回路13が生成するとともに、眼球撮像装置1は、生成されたその動画像データを例えばケーブル16を介してコンピュータ装置100に送る。
かかる動画像データは、インターフェイス114を介して入力部121へと送られ、入力部121から出力部124へと送られる。
出力部124は、動画像データを、インターフェイス114を介してコンピュータ装置100の送受信機構に送る。コンピュータ装置100の送受信機構は、ネットワーク300を介して、サーバ200に動画像データを送る。
The usage method and operation of the determination system of the second embodiment will be described.
First, the usage and operation of the eye imaging device 1 are the same as in the first embodiment. In the eyeball imaging device 1, the circuit 13 generates moving image data corresponding to the required length of the moving image, which is 6 seconds in the first embodiment, based on the moving image data generated by the imaging device 12. , the eyeball imaging device 1 sends the generated moving image data to the computer device 100 via the cable 16, for example.
Such moving image data is sent to the input section 121 via the interface 114 and sent from the input section 121 to the output section 124 .
The output unit 124 sends the moving image data to the transmission/reception mechanism of the computer device 100 via the interface 114 . The transmission/reception mechanism of computer device 100 sends moving image data to server 200 via network 300 .

コンピュータ装置100から送られた動画像データは、サーバ200の送受信機構によって受け取られる。サーバ200の送受信機構は、動画像データをインターフェイスを介して、入力部221に送る。
入力部221は、受け取った動画像データを二値化処理部222に送る。
二値化処理部222は、受け取った動画像データを第1実施形態の二値化処理部122が行ったのと同様に処理して、二値動画像データを生成する。二値化処理部222は生成した二値動画像データを出力部224へ送る。
出力部224は、二値動画像データを、インターフェイスを介してサーバ200の送受信機構に送る。それを受け取ったサーバ200の送受信機構は、ネットワーク300を介して、コンピュータ装置100に二値動画像データを返信する。
The moving image data sent from the computer device 100 is received by the transmission/reception mechanism of the server 200 . The transmission/reception mechanism of the server 200 sends the moving image data to the input unit 221 via the interface.
The input unit 221 sends the received moving image data to the binarization processing unit 222 .
The binarization processing unit 222 processes the received moving image data in the same manner as the binarization processing unit 122 of the first embodiment has performed to generate binary moving image data. The binarization processing unit 222 sends the generated binary moving image data to the output unit 224 .
The output unit 224 sends the binary moving image data to the transmission/reception mechanism of the server 200 via the interface. The transmitting/receiving mechanism of the server 200 that has received it returns the binary moving image data to the computer device 100 via the network 300 .

コンピュータ装置100は、その送受信機構により二値動画像データを受取る。
サーバ200から送られた二値動画像データは、コンピュータ装置100の送受信機構によって受け取られる。コンピュータ装置100の送受信機構は、二値動画像データをインターフェイス114を介して、入力部121に送る。
入力部121は、受け取った二値動画像データをグラフ生成部123に送る。
以後の処理は第1実施形態と同じであり、コンピュータ装置100のディスプレイ101に、グラフデータに応じた内容の画像が表示されることになる。
The computer device 100 receives the binary moving image data through its transmission/reception mechanism.
The binary moving image data sent from the server 200 is received by the transmission/reception mechanism of the computer device 100 . The transmission/reception mechanism of the computer device 100 sends the binary moving image data to the input unit 121 via the interface 114 .
The input unit 121 sends the received binary moving image data to the graph generation unit 123 .
Subsequent processing is the same as in the first embodiment, and an image having content corresponding to the graph data is displayed on the display 101 of the computer device 100 .

要するに、第2実施形態は、第1実施形態においてコンピュータ装置100内に存在した二値化処理部122を省略する代わりに、サーバ200内に二値化処理部122と同じ機能を持つ二値化処理部222を設け、第1実施形態においてコンピュータ装置100の二値化処理部122で賄っていた動画像データを二値動画像データに変換する機能を、サーバ200に賄わせるものとしたものである。 In short, in the second embodiment, instead of omitting the binarization processing unit 122 that existed in the computer device 100 in the first embodiment, the binarization processing unit 122 having the same function as the binarization processing unit 122 is installed in the server 200. A processing unit 222 is provided so that the server 200 is provided with the function of converting moving image data into binary moving image data, which was covered by the binarization processing unit 122 of the computer device 100 in the first embodiment. be.

なお、第2実施形態におけるサーバ200は、動画像データを二値動画像データにする機能のみならず、二値動画像データに基づいてグラフデータを生成する機能をも賄ってもよい。その場合には、第1実施形態ではコンピュータ装置100内にあったグラフ生成部123が省略され、サーバ200内にそのグラフ生成部123に相当するグラフ生成部が生成されることになろう。 It should be noted that the server 200 in the second embodiment may serve not only the function of converting moving image data into binary moving image data, but also the function of generating graph data based on the binary moving image data. In that case, the graph generator 123 in the computer device 100 in the first embodiment will be omitted, and a graph generator corresponding to the graph generator 123 will be generated in the server 200 .

1 眼球撮像装置
10 把持部
11 レンズ
12 撮像素子
13 回路
16 ケーブル
19 隔壁
20 頭部
31a 照明光光源
31b 刺激光光源
32 第1偏光板
33 第2偏光板
100 コンピュータ装置
121 入力部
122 二値化処理部
122B1 第1処理部
122B2 第2処理部
123 グラフ生成部
124 出力部
200 サーバ
221 入力部
222 二値化処理部
224 出力部
300 ネットワーク
1 eyeball imaging device 10 grip part 11 lens 12 imaging element 13 circuit 16 cable 19 partition 20 head 31a illumination light source 31b stimulation light source 32 first polarizing plate 33 second polarizing plate 100 computer device 121 input unit 122 binarization processing Section 122B1 First Processing Section 122B2 Second Processing Section 123 Graph Generation Section 124 Output Section 200 Server 221 Input Section 222 Binary Processing Section 224 Output Section 300 Network

Claims (6)

動画を撮像することのできる所定のカメラで撮像されることによって前記カメラによって生成された、被験者の片眼の眼球を含む静止画像についてのデータである静止画像データを多数連ねたものである、動画像のデータである動画像データを受付ける動画像データ受付部と、
前記動画像データに含まれる前記静止画像データのうちの少なくとも複数に対して、閾値である特定閾値を用いて二値化の処理を行うことにより、前記静止画像を二値化した画像である二値静止画像のデータである二値静止画像データを多数連ねたものである、動画像のデータである二値動画像データを生成する二値化処理部と、
を備えている画像処理装置であって、
前記二値化処理部は、
二値化の対象となる複数の前記静止画像データに基づく前記静止画像のそれぞれを異なる複数の閾値である仮閾値で二値化することにより、各画素の濃度が極大か極小となるようにされた複数の仮閾値静止画像を生成する第1処理部と、
前記第1処理部で生成された複数の前記仮閾値静止画像に基づいて、前記仮閾値が変化しても前記仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない前記仮閾値の範囲を特定するとともに、その範囲に含まれる閾値を前記特定閾値として決定して、複数の前記仮閾値静止画像のうちの当該特定閾値を用いて二値化されたものを前記二値静止画像として決定する第2処理部と、
を備えている、
画像処理装置。
A moving image, which is a sequence of a large number of still image data, which is data about a still image including the eyeball of one eye of a subject, generated by a predetermined camera capable of capturing moving images. a moving image data reception unit that receives moving image data that is image data;
binarizing at least a plurality of the still image data included in the moving image data using a specific threshold value to obtain a second image obtained by binarizing the still image; a binarization processing unit for generating binary moving image data, which is moving image data, which is obtained by connecting a large number of binary still image data, which is value still image data;
An image processing device comprising
The binarization processing unit
Each of the still images based on the plurality of still image data to be binarized is binarized with a plurality of different thresholds, which are provisional thresholds, so that the density of each pixel is maximized or minimized. a first processing unit that generates a plurality of temporary threshold still images;
Based on the plurality of the provisional threshold still images generated by the first processing unit, the provisional threshold still image does not change the area of the range where the density in the provisional threshold still image is maximum even if the provisional threshold is changed. A threshold range is specified, a threshold included in the range is determined as the specific threshold, and one of the plurality of temporary threshold still images binarized using the specific threshold is the binary still image. a second processing unit for determining as an image;
is equipped with
Image processing device.
前記第2処理部は、前記仮閾値の範囲のうちの中央を含む50%の範囲に含まれるように前記特定閾値を決定するようになっている、
請求項1記載の画像処理装置。
The second processing unit is configured to determine the specific threshold so as to be included in a 50% range including the center of the range of the temporary threshold,
The image processing apparatus according to claim 1.
前記カメラと一体となっている、
請求項1記載の画像処理装置。
integral with the camera;
The image processing apparatus according to claim 1.
前記動画像データ受付部は、前記動画像データを所定のネットワークを介して前記カメラから受取るようになっている、
請求項1記載の画像処理装置。
The moving image data reception unit receives the moving image data from the camera via a predetermined network,
The image processing apparatus according to claim 1.
動画を撮像することのできる所定のカメラで撮像されることによって前記カメラによって生成された、被験者の片眼の眼球を含む静止画像についてのデータである静止画像データを多数連ねたものである、動画像のデータである動画像データを受付ける動画像データ受付部を備えるコンピュータで実行される方法であって、
前記コンピュータが実行する、
前記動画像データに含まれる前記静止画像データのうちの少なくとも複数に対して、閾値である特定閾値を用いて二値化の処理を行うことにより、前記静止画像を二値化した画像である二値静止画像のデータである二値静止画像データを多数連ねたものである、動画像のデータである二値動画像データを生成する二値化処理過程、
を含んでおり、
前記二値化処理過程では、
二値化の対象となる複数の前記静止画像データに基づく前記静止画像のそれぞれを異なる複数の閾値である仮閾値で二値化することにより、各画素の濃度が極大か極小となるようにされた複数の仮閾値静止画像を生成する第1処理過程と、
前記第1処理過程で生成された複数の前記仮閾値静止画像に基づいて、前記仮閾値が変化しても前記仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない前記仮閾値の範囲を特定するとともに、その範囲に含まれる閾値を前記特定閾値として決定して、複数の前記仮閾値静止画像のうちの当該特定閾値を用いて二値化されたものを前記二値静止画像として決定する第2処理過程と、
を実行する、
画像処理方法。
A moving image, which is a sequence of a large number of still image data, which is data about a still image including the eyeball of one eye of a subject, generated by a predetermined camera capable of capturing moving images. A method executed by a computer including a moving image data receiving unit that receives moving image data that is image data,
the computer executes
binarizing at least a plurality of the still image data included in the moving image data using a specific threshold value to obtain a second image obtained by binarizing the still image; a binarization process for generating binary moving image data, which is moving image data, which is a sequence of a large number of binary still image data, which is value still image data;
contains
In the binarization process,
Each of the still images based on the plurality of still image data to be binarized is binarized with a plurality of different thresholds, which are provisional thresholds, so that the density of each pixel is maximized or minimized. a first process for generating a plurality of temporary threshold still images;
Based on the plurality of provisional threshold still images generated in the first processing step, the provisional threshold still image does not change the area of the range where the density in the provisional threshold still image is maximum even if the provisional threshold is changed. A threshold range is specified, a threshold included in the range is determined as the specific threshold, and one of the plurality of temporary threshold still images binarized using the specific threshold is the binary still image. a second process of determining as an image;
run the
Image processing method.
動画を撮像することのできる所定のカメラで撮像されることによって前記カメラによって生成された、被験者の片眼の眼球を含む静止画像についてのデータである静止画像データを多数連ねたものである、動画像のデータである動画像データを受付ける動画像データ受付部を備えたコンピュータを、
前記動画像データに含まれる前記静止画像データのうちの少なくとも複数に対して、閾値である特定閾値を用いて二値化の処理を行うことにより、前記静止画像を二値化した画像である二値静止画像のデータである二値静止画像データを多数連ねたものである、動画像のデータである二値動画像データを生成する二値化処理部、
を備えており、
前記二値化処理部が、
二値化の対象となる複数の前記静止画像データに基づく前記静止画像のそれぞれを異なる複数の閾値である仮閾値で二値化することにより、各画素の濃度が極大か極小となるようにされた複数の仮閾値静止画像を生成する第1処理部と、
前記第1処理部で生成された複数の前記仮閾値静止画像に基づいて、前記仮閾値が変化しても前記仮閾値静止画像中の濃度が極大となっている範囲の面積が変化しない前記仮閾値の範囲を特定するとともに、その範囲に含まれる閾値を前記特定閾値として決定して、複数の前記仮閾値静止画像のうちの当該特定閾値を用いて二値化されたものを前記二値静止画像として決定する第2処理部と、
を備えている、
画像処理装置として機能させるためのコンピュータプログラム。
A moving image, which is a sequence of a large number of still image data, which is data about a still image including the eyeball of one eye of a subject, generated by a predetermined camera capable of capturing moving images. A computer equipped with a moving image data receiving unit for receiving moving image data, which is image data,
binarizing at least a plurality of the still image data included in the moving image data using a specific threshold value to obtain a second image obtained by binarizing the still image; a binarization processing unit that generates binary moving image data, which is moving image data, which is a sequence of a large number of binary still image data, which is value still image data;
and
The binarization processing unit
Each of the still images based on the plurality of still image data to be binarized is binarized with a plurality of different thresholds, which are provisional thresholds, so that the density of each pixel is maximized or minimized. a first processing unit that generates a plurality of temporary threshold still images;
Based on the plurality of the provisional threshold still images generated by the first processing unit, the provisional threshold still image does not change the area of the range where the density in the provisional threshold still image is maximum even if the provisional threshold is changed. A threshold range is specified, a threshold included in the range is determined as the specific threshold, and one of the plurality of temporary threshold still images binarized using the specific threshold is the binary still image. a second processing unit for determining as an image;
is equipped with
A computer program for functioning as an image processing device.
JP2018228437A 2018-12-05 2018-12-05 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM Active JP7182103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018228437A JP7182103B2 (en) 2018-12-05 2018-12-05 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018228437A JP7182103B2 (en) 2018-12-05 2018-12-05 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM

Publications (2)

Publication Number Publication Date
JP2020089560A JP2020089560A (en) 2020-06-11
JP7182103B2 true JP7182103B2 (en) 2022-12-02

Family

ID=71013410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018228437A Active JP7182103B2 (en) 2018-12-05 2018-12-05 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM

Country Status (1)

Country Link
JP (1) JP7182103B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007144113A (en) 2005-10-25 2007-06-14 Olympus Corp Biological information collecting and presenting apparatus, and pupil diameter measuring device
JP2010220942A (en) 2009-03-25 2010-10-07 Yaskawa Information Systems Co Ltd Pupil measuring device, pupil measuring method, and pupil measuring program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5255932B2 (en) * 2008-07-08 2013-08-07 株式会社ニューオプト Pupil imaging device for small animals

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007144113A (en) 2005-10-25 2007-06-14 Olympus Corp Biological information collecting and presenting apparatus, and pupil diameter measuring device
JP2010220942A (en) 2009-03-25 2010-10-07 Yaskawa Information Systems Co Ltd Pupil measuring device, pupil measuring method, and pupil measuring program

Also Published As

Publication number Publication date
JP2020089560A (en) 2020-06-11

Similar Documents

Publication Publication Date Title
US10529071B2 (en) Facial skin mask generation for heart rate detection
US9961258B2 (en) Illumination system synchronized with image sensor
RU2656760C2 (en) System and method for extracting physiological information from remotely detected electromagnetic radiation
RU2674226C2 (en) Device and method for determining vital signs of subject
WO2019120029A1 (en) Intelligent screen brightness adjustment method and apparatus, and storage medium and mobile terminal
Ramirez et al. Color analysis of facial skin: Detection of emotional state
CN110121885A (en) For having recessed video link using the wireless HMD video flowing transmission of VR, the low latency of watching tracking attentively
US20150126875A1 (en) Method and system for screening of atrial fibrillation
US10692201B2 (en) Fingerprint capture system, fingerprint capture device, image processing apparatus, fingerprint capture method, and storage medium
CN106659392A (en) Unobtrusive skin tissue hydration determining device and related method
US11445920B2 (en) Information processing method, information processing device, and information processing system
JP2017209280A (en) Skin diagnostic device and skin diagnostic method
US20220378298A1 (en) Information processing method, information processing device, and information processing system
CN110795981A (en) Face recognition interaction method and system for hyperbaric oxygen chamber
CN108154483A (en) Image Processing Apparatus, Image Processing Method And Recording Medium
Ding et al. Noncontact multiphysiological signals estimation via visible and infrared facial features fusion
JP2010277315A (en) Information processing apparatus, authentication data selection method, and program
JP7182103B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM
KR102542016B1 (en) Method and apparatus for pseudonymizing medical image
JP2011198270A (en) Object recognition device and controller using the same, and object recognition method
JP7182102B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM
US10915617B2 (en) Image processing apparatus, image processing method, and recording medium
US8306609B2 (en) Vein imaging apparatus and thumbnail image creation method
US20220409109A1 (en) Mental and physical state assessment system, assessment device, method, and computer program
JP2015012984A (en) Blood vessel visualization device, blood vessel visualization method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221108

R150 Certificate of patent or registration of utility model

Ref document number: 7182103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150