WO2023095679A1 - 視認状態判定装置及び視認状態判定システム - Google Patents

視認状態判定装置及び視認状態判定システム Download PDF

Info

Publication number
WO2023095679A1
WO2023095679A1 PCT/JP2022/042401 JP2022042401W WO2023095679A1 WO 2023095679 A1 WO2023095679 A1 WO 2023095679A1 JP 2022042401 W JP2022042401 W JP 2022042401W WO 2023095679 A1 WO2023095679 A1 WO 2023095679A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
infrared light
area
pupil
Prior art date
Application number
PCT/JP2022/042401
Other languages
English (en)
French (fr)
Inventor
勇氣 ▲高▼橋
Original Assignee
矢崎総業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 矢崎総業株式会社 filed Critical 矢崎総業株式会社
Publication of WO2023095679A1 publication Critical patent/WO2023095679A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present invention relates to a visibility state determination device and a visibility state determination system.
  • the detection of the viewing position where a person is looking can be realized by a system configuration that mainly uses a camera, and it is effective for product installation in that it does not require the person to be measured to wear a measuring device and does not place a burden on them. is.
  • a line-of-sight measurement system for example, the positions of the face and the eyes of the person being measured are detected by image processing, and the viewing position of the person being measured is detected from the calculated line-of-sight angle.
  • Japanese Patent Laid-Open No. 2002-200001 proposes a method for detecting a pupil region in an eyeball with high accuracy when estimating a line-of-sight position.
  • the visual recognition state determination device includes a light source that emits infrared light, and at least an eyeball of a person to be measured illuminated by the infrared light and light other than the infrared light.
  • a photographing unit having a camera for photographing; and a processing unit for determining a line-of-sight direction of the person to be measured based on the image photographed by the photographing unit, wherein the camera is an emission direction of the infrared light. and the processing unit receives from the photographing unit an image taken with the light source turned off and an image taken with the light source turned on.
  • the reflected infrared light area corresponding to the reflected light is detected, and the reflected infrared light area overlaps the pupil image area, the direction of the line of sight of the person to be measured is opposite to the exit direction. If it is determined that the visible object is located on the extension line of the direction, and the reflected infrared light area does not overlap the pupil image area, the line-of-sight direction is on the extension line of the direction opposite to the emission direction. It is characterized in that it is determined that the object to be visually recognized located at is not present.
  • the visual recognition state determination device and the visual recognition state determination system it is possible to easily determine the line-of-sight direction of the person to be measured with a simple configuration.
  • FIG. 1 is a block diagram showing a schematic configuration of a visual recognition state determination device according to an embodiment.
  • FIG. 2 is a schematic diagram showing a schematic configuration of each part constituting the visual recognition state determination device.
  • FIG. 3 is a schematic diagram showing a state in which the emission direction of near-infrared light and the line-of-sight direction do not match.
  • FIG. 4 is a schematic diagram showing a state in which the emission direction of near-infrared light and the line-of-sight direction match.
  • FIG. 5 is a flowchart showing the flow of visual recognition state determination processing executed by the visual recognition state determination device.
  • FIG. 6 is a flowchart for explaining pupil position detection in step S3 of FIG. FIG.
  • FIG. 7 is a schematic diagram showing an outline of a pupil detection algorithm executed by the visual recognition state determination device.
  • FIG. 8 is a flow chart showing the flow of reflected light position detection in step S6 of FIG.
  • FIG. 9 is a flow chart showing the flow of reflected light position detection in step S23 of FIG.
  • FIG. 10 is a diagram showing an example of the binarized image in step S22 of FIG.
  • FIG. 11 is a diagram showing an example of the binarized image in step S22 of FIG.
  • FIG. 12 is a diagram for explaining a method of extracting a region having an area closest to the assumed area value in step S33 of FIG.
  • FIG. 13 is a schematic diagram showing a schematic configuration of a visual recognition state determination device according to a modification of the present embodiment.
  • FIG. 14 is a flowchart showing the flow of visual recognition state determination processing executed by the visual recognition state determination device according to the modification.
  • FIG. 15 is a flowchart showing the flow of visual recognition state determination processing executed by the visual
  • the visual recognition state determination device 1 determines the visual recognition state of a person with respect to an object to be visually recognized.
  • the visual recognition state determination device 1 includes one photographing unit 2 and a processing section 3 connected to the photographing unit 2 .
  • the photographing unit 2 is arranged, for example, on an object to be visually recognized (not shown) or in the vicinity of the object to be visually recognized, and outputs image data of an image obtained by photographing a person to the processing unit 3 .
  • the processing unit 3 is an example of a processing device, and performs predetermined processing based on the image data input from the imaging unit 2 so that a person appearing in an image corresponding to the image data visually recognizes an object to be viewed.
  • the photographing unit 2 includes a light source 10 and a camera 20 .
  • the light source 10 and the camera 20 are arranged adjacent to each other on one substrate 40, for example (FIGS. 3 and 4). Further, the processing section 3 is arranged on the substrate 40 .
  • the light source 10 is, for example, an LED (Light Emitting Diode) that emits near-infrared light toward the outside of the imaging unit 2 .
  • Near-infrared light is an electromagnetic wave with a wavelength of about 0.7 to 2.5 ⁇ m, and has a wavelength close to red visible light. ing.
  • the light source 10 turns on (emits infrared light) in response to a lighting signal input from the processing unit 3, and turns off in response to a turn-off signal.
  • the light source 10 is arranged on or in the vicinity of the object to be viewed.
  • the light source 10 preferably emits light with high directivity.
  • the camera 20 is arranged in the vicinity of the light source 10 and photographs a photographing range (for example, angle of view ⁇ ) set outside the photographing unit 2 .
  • the camera 20 is illuminated by infrared light emitted from the light source 10 or light other than infrared light (for example, natural light) when the person to be measured 100 exists in the shooting range set outside the shooting unit 2.
  • a person 100 to be measured is photographed.
  • the camera 20 is arranged at a position where the face 101 or eyeballs 103 of the person 100 to be measured can be photographed.
  • a measurement target person 100 is a person whose visibility state is to be determined.
  • the camera 20 is arranged at a position for receiving reflected light reflected in a direction opposite to the direction in which the infrared light emitted from the light source 10 is emitted.
  • the optical axis of the camera 20 and the optical axis of the light source 10 overlap.
  • the fact that the optical axis of the camera 20 and the optical axis of the light source 10 overlap means that both optical axes are coaxial.
  • the camera 20 can capture at least the entire face 101 with sufficient resolution.
  • the shooting range can be determined according to the detection range requested by the application.
  • the camera 20 is composed of a sensor module 21 and a lens module 29 .
  • the sensor module 21 converts an image formed through the lens module 29 into an electrical signal and outputs the electrical signal as image data.
  • the lens module 29 is configured by incorporating a plurality of optical lenses into a lens barrel, and forms an image of a subject on the image sensor 22 .
  • the sensor module 21 includes an image sensor 22, a system controller 23, an image signal processor 24, an I2C interface 25, and an output interface 26, as shown in FIG.
  • the image sensor 22 converts an optical image of a subject into an electrical signal, and is connected to the system controller 23 and image signal processor 24 .
  • the image sensor 22 includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the image sensor 22 may be another type of image sensor such as a CCD (Charge-Coupled Device) image sensor.
  • the system controller 23 is a CPU (Central Processing Unit) dedicated to the sensor module, is connected to the image signal processor 24, and controls them.
  • CPU Central Processing Unit
  • the image signal processor 24 performs image processing on raw image signals (for example, RAW data) output from the image sensor 22 .
  • the image signal processor 24 corrects the optical system, corrects defective pixels, removes noise, and corrects brightness, color, edge, etc. for high image quality.
  • the image signal processor 24 outputs image data to the processing section 3 via the output interface 26 .
  • the I2C interface 25 uses, for example, two-wire wiring hardware to input camera setting signals and the like with the processing unit 3 .
  • a camera setting signal is input from the processing unit 3 to the image signal processor 24 via the I2C interface 25 .
  • the processing unit 3 includes a light source/camera control unit 30 and an arithmetic processing unit 31 .
  • the light source/camera control unit 30 outputs a turn-on signal or turn-off signal to the light source 10 according to the control signal input from the arithmetic processing unit 31 to control the light emission of the light source 10 .
  • the light source/camera control section 30 outputs a shutter ON signal to the camera 20 according to the control signal input from the arithmetic processing section 31 to control shutter drive of the camera 20 .
  • the control signal includes, for example, an enable signal, a disable signal, register setting data, and the like.
  • the arithmetic processing unit 31 has, for example, a processing circuit (not shown) that implements various processing functions in the visual recognition state determination device 1 .
  • a processing circuit is implemented by, for example, a processor.
  • a processor means a circuit such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field Programmable Gate Array).
  • the arithmetic processing unit 31 implements each processing function by, for example, executing a program read from a storage circuit (storage unit) (not shown). Further, the arithmetic processing unit 31 can store a plurality of images in the storage unit, reads out the images stored in the storage unit, and performs image processing.
  • the arithmetic processing unit 31 performs image processing on the image input from the camera 20 and determines whether or not the direction of the line of sight of the person to be measured 100 is in the opposite direction to the direction in which the near-infrared light emitted from the light source 10 is emitted. It has a visibility judgment function. Specifically, the arithmetic processing unit 31 acquires from the imaging unit 2 an image taken with the light source 10 turned off and an image taken with the light source 10 turned on. The arithmetic processing unit 31 detects a pupil image region P corresponding to light other than infrared light reflected by the pupil 104 in the eyeball 103 of the person to be measured 100 from the obtained image when the light is off. As shown in FIGS.
  • the pupil image area P is an image area occupied by the pupil 104 in each lit image 50, 50A.
  • the arithmetic processing unit 31 detects an infrared light reflected light area Q corresponding to the reflected light of the near-infrared light in the eyeball 103 of the measurement target person 100 from the acquired lit-up image.
  • the reflected infrared light area Q is an image area occupied by the reflected light in the lighting images 50 and 50A. This reflected light is reflected light that is reflected in a direction opposite to the direction in which the infrared light emitted from the light source 10 is emitted.
  • the pupil image region P and the infrared light reflected light region Q do not overlap.
  • the pupil image region P and the infrared light reflected light region Q overlap.
  • the arithmetic processing unit 31 compares the position of the detected pupil image region P and the position of the infrared light reflected light region Q, and as shown in FIG. If it is determined that the positions of the regions overlap, it is determined that the sight line direction of the person to be measured 100 is on the visible object located on the extension line in the direction opposite to the emission direction. In this case, the processing unit 3 may externally output a determination result signal indicating that the line of sight of the person 100 to be measured faces the object to be visually recognized (or the photographing unit 2). On the other hand, as shown in FIG.
  • the processing unit 3 may indicate that the line of sight of the person to be measured 100 is not directed toward the object to be visually recognized by not outputting the determination result to the outside.
  • a determination result signal indicating that the visual line direction of 100 is not facing the object to be visually recognized (or the photographing unit 2) may be output to the outside.
  • step S1 the arithmetic processing unit 31 outputs a control signal to the light source/camera control unit 30, causes the light source/camera control unit 30 to output a turn-off signal for turning off the light source 10, and turns off the light source 10.
  • the light source/camera control unit 30 outputs a light-off signal to turn off the light source 10, the output of the LED pulse drive signal to the light source 10 may be stopped.
  • step S2 the arithmetic processing unit 31 outputs a control signal to the light source/camera control unit 30 to cause the light source/camera control unit 30 to output a shutter ON signal to the camera 20, and the camera 20 performs photographing.
  • the camera 20 performs photographing according to the shutter ON signal input from the light source/camera control section 30 and outputs data of the obtained image (light-off image) to the arithmetic processing section 31 .
  • step S ⁇ b>3 the arithmetic processing unit 31 performs pupil position detection based on the data of the unlit image input from the camera 20 .
  • the details of pupil position detection will be described later.
  • step S4 the arithmetic processing unit 31 outputs a control signal to the light source/camera control unit 30, and causes the light source/camera control unit 30 to output a lighting signal for lighting the light source 10, thereby lighting the light source 10.
  • the light source/camera control unit 30 outputs a lighting signal to light the light source 10, the output of the LED pulse driving signal to the light source 10 may be started.
  • step S5 the arithmetic processing unit 31 outputs a control signal to the light source/camera control unit 30 to cause the light source/camera control unit 30 to output a shutter ON signal to the camera 20, and the camera 20 performs photographing.
  • the camera 20 takes a picture in response to a shutter ON signal input from the light source/camera control section 30 and outputs data of the obtained image (lighted image) to the arithmetic processing section 31 .
  • step S ⁇ b>6 the arithmetic processing unit 31 performs reflected light position detection based on the data of the lighting image input from the camera 20 .
  • the details of reflected light position detection will be described later.
  • step S7 the arithmetic processing unit 31 compares the pupil image area P obtained in step S3 with the infrared light reflected light area Q obtained in step S6, and determines the position of the pupil image area P. It is determined whether or not the positions of the external light reflected light regions Q are overlapped, and the visual recognition determination of the person 100 to be measured is performed.
  • step S8 the arithmetic processing unit 31 outputs the determination result determined in step S7 to the outside, and ends this process.
  • step S ⁇ b>11 the arithmetic processing unit 31 acquires one frame of the video signal of the off-time image from the camera 20 .
  • step S12 the arithmetic processing unit 31 performs conversion (preprocessing) of the data format of the image, including grayscaling. For example, for each pixel position within a frame, 8-bit data representing the brightness in a gradation range of "0 to 255" is arranged vertically and horizontally according to the scanning direction within the frame at the time of shooting. (2D) Generate array image data.
  • step S13 the arithmetic processing unit 31 performs face detection using, for example, the "Viola-Jones method", and extracts a face image area containing a face from one frame of two-dimensional image data.
  • a face image region is extracted using a detector that is characterized by the shadow difference of the face and created by learning using “Boosting”.
  • Boosting the technique of the "Viola-Jones method” is disclosed, for example, in the following documents. "P. viola and MJ Jones, Rapid Object Detection Using a Boosted Cascade of Simple Features, IEEE CVPR (2001).”
  • step S14 the arithmetic processing unit 31 extracts an eye image area corresponding to the eye 102 from the face image area extracted in step S13, for example, using the Viola-Jones method described above.
  • step S15 the arithmetic processing unit 31 performs rough search for the pupil 104 by applying a template matching method to the rectangular area data corresponding to the eye 102 detected in step S14. Specifically, a black circle image is matched as a template to an image obtained by binarizing an eye image area cut out around the eye 102, and the coordinates of the image center (the center of the black circle) of the black circle image with the highest likelihood are obtained. is the center position of the pupil 104 in the eye image area, and the radius of the black circle image with the highest likelihood is the radius of the pupil 104 in the eye image area. If the pupil 104 cannot be detected, the arithmetic processing unit 31 may determine that the line of sight of the person 100 to be measured does not face the object to be visually recognized (or the photographing unit 2).
  • step S16 the arithmetic processing unit 31 uses the center position and radius of the pupil 104 searched in step S15, applies a particle filter technique, and obtains the coordinates of the center position and the center position of the pupil 104 with higher accuracy. Find the radius of .
  • the arithmetic processing unit 31 stores the detected coordinates of the center position of the pupil 104 and the radius from the center position in the storage unit for one frame image.
  • the arithmetic processing unit 31 cuts out an eye and a rectangular area around the eye from the entire one-frame unlit image as an eye image area.
  • the arithmetic processing unit 31 generates binarized data based on the clipped eye image area so that the gradation for each pixel is only binary black/white, and applies a template to this data. Carry out matching. That is, an image of a black circle shape similar to the shape of the pupil 104 is used as a template, and while scanning this template on the image, the approximate position of the pupil 104 whose characteristics are most similar is searched, and the position and the pupil are searched. Specify the radius or diameter.
  • the arithmetic processing unit 31 performs edge detection using a Sobel filter on the clipped eye image area. Specifically, the eye image area is sequentially scanned in the horizontal direction from left to right, and black (gradation value: 0) is output in areas where there is no change in brightness, and the gradient of change in brightness is large. Edges are detected by approaching white (gradation value: 255) as much as possible.
  • the arithmetic processing unit 31 uses the approximate position of the pupil 104 obtained in D42 as a starting point, performs particle filter processing on the edge-detected eye image region detected in D43, and obtains a pupil image region P (D45).
  • step S6 of FIG. 5 the details of the reflected light position detection algorithm in step S6 of FIG. 5 will be described with reference to FIG.
  • step S21 the arithmetic processing unit 31 extracts the eye area including the eye periphery from the lit image based on the (coordinate) position of the face image area corresponding to the face image area extracted by the pupil position detection in step S3 of FIG. Extract image regions.
  • the arithmetic processing unit 31 cuts out the eye image area from the face image area in grayscale, and enlarges or reduces the image corresponding to the eye image area to a preset size. Convert.
  • the arithmetic processing unit 31 extracts the eye image area from the lighting image based on the (coordinate) position of the face image area corresponding to the face image area extracted in the pupil position detection in step S3 of FIG. is extracted, but it is not limited to this.
  • the arithmetic processing unit 31 may extract the eye image area from the lit-time image by the processing of steps S12 to S15 in FIG.
  • step S22 the arithmetic processing unit 31 performs binarization processing on the eye image region extracted in step S21.
  • the arithmetic processing unit 31 uses a threshold value, sets the pixel value to 1 for pixels equal to or higher than the threshold value, and sets the pixel value to 0 for pixels lower than the threshold value.
  • the threshold should be set to a high (bright) value of 200 or more.
  • the binarized eye image area 50Ba is obtained by binarizing the lighting image 50B, and the area R is white and the area other than the area R is black.
  • the areas R1, R2, and R3 are white, and the areas other than the areas R1 to R3 are black.
  • the area R3 is the area corresponding to the infrared light reflected light area Q.
  • step S23 the arithmetic processing unit 31 performs reflected light position search for the eye image area binarized in step S22.
  • the details of the reflected light position search will be described later.
  • step S24 the arithmetic processing unit 31 stores (saves) the position of the infrared reflected light region Q detected in step S23 in the storage unit, and returns.
  • step S31 the arithmetic processing unit 31 performs area division on the binarized eye image area. As shown in FIG. 11, the arithmetic processing unit 31 combines adjacent pixels having a pixel value of 1 (white portion in the binarized eye image area) in the binarized eye image area 50Ca, area. In the illustrated example, it is divided into two regions R1 to R3.
  • step S32 the arithmetic processing unit 31 calculates the area of each region (R, R1 to R3) divided in step S31.
  • the area corresponds to the number of pixel values in each region.
  • the area Ak corresponding to the K-th region Rk is obtained by the following equation (1).
  • n(Rk) number of points included in region Rk (k: 1, 2, . . . )
  • step S33 the arithmetic processing unit 31 extracts a region Rk having an area closest to the assumed area value among the plurality of regions Rk calculated in step S32.
  • the size of the light source 10 is constant, and since the size of the cut-out eye image area is set to a fixed value and then enlarged or reduced, it is assumed that the reflected light is also reflected in a constant size. Therefore, an area corresponding to the infrared light reflected light region Q is set as an assumed area value, and an area value closest to that area value is extracted. As shown in FIG.
  • the region area corresponding to the region R1 is 236 [mm 2 ]
  • the region area corresponding to the region R2 is 91 [mm 2 ]
  • the region area corresponding to the region R3 is 28 [mm 2 ].
  • a region R3 having an area closest to the assumed area value of 30 [mm 2 ] is extracted.
  • the assumed area value needs to be set in advance, and can be calculated, for example, based on the size of the infrared light and the assumed distance from the camera to the face.
  • step S34 the arithmetic processing unit 31 calculates the center position based on the region R3 extracted in step S33, and returns this process. Specifically, the arithmetic processing unit 31 obtains the coordinates C(x, y) of the central position of the infrared light reflected light region Q corresponding to the extracted region R3.
  • the center position is a value obtained by adding up the coordinate values of all pixels and dividing the result by the number of pixels.
  • the arithmetic processing unit 31 stores the obtained coordinates C(x, y) of the central position of the reflected infrared light region Q in the storage unit.
  • C(x, y) Coordinates of the central position of the infrared light reflected light area T(x, y): Coordinates of the point T in the infrared light reflected light area Rn: Included in the infrared light reflected light area It is a set of point clouds, and here refers to a set of R3 in the eye image region 50Ca.
  • the visual recognition state determination device 1 determines the position of the subject 100 based on the positional relationship between the pupil image region P obtained in step S3 of FIG. It is determined whether or not the line-of-sight direction of is on the visible object located on the extension line of the direction opposite to the emitting direction.
  • the reflected infrared light area Q overlaps the pupil image area P
  • the line of sight of the person 100 to be measured faces the object to be visually recognized (or the photographing unit 2).
  • the reflected infrared light area Q does not overlap the pupil image area P
  • the line of sight of the person 100 to be measured does not face the object to be visually recognized (or the photographing unit 2).
  • the condition for determining that the reflected infrared light area Q overlaps the pupil image area P is that the coordinate values of all pixels in the pupil image area P are within the reflected infrared light area Q.
  • the coordinate values of all pixels overlap for example, by 80% or more.
  • the conditions for determining that the reflected infrared light area Q overlaps the pupil image area P include, for example, It includes overlapping position coordinates.
  • the value (distance) of the separation is equal to or less than the threshold (pixel value). In some cases, it may be determined that the two reflected light areas P and Q overlap.
  • the pupil image region When the separation distance (pixel value) between the coordinates of the center position of P and the coordinates of the center position of the infrared light reflected light region Q is equal to or less than a threshold value, it is determined that the two reflected light regions P and Q overlap.
  • the separation distance (pixel value) between the coordinates of the center position of the pupil image region P and the coordinates of the center position of the infrared light reflected light region Q is not equal to or less than the threshold value, all the pixels in the pupil image region P
  • the coordinate values of all pixels in the infrared light reflected light area Q overlap with the coordinate values of the pixels by, for example, 80% or more, it is determined that the two reflected light areas P and Q overlap. good too.
  • the above ratio of 80% is an example, and is not limited to this.
  • the separation distance (pixel value) is within a preset threshold value (pixel value), it may be determined that the two reflected light regions P and Q overlap.
  • pixel value a preset threshold value
  • Any of the above thresholds can be set arbitrarily, but it is preferable that the value be such that the line-of-sight direction of the person to be measured 100 is assumed to face the object to be visually recognized (or the photographing unit 2).
  • the visual recognition state determination device 1 described above includes a photographing unit 2 having a light source 10 that emits infrared light, a camera 20 that photographs the eyeball 103 of the person to be measured 100 illuminated by the light source 10, and the photographing unit 2.
  • a processing unit 3 for determining the line-of-sight direction of the person to be measured 100 based on the captured image.
  • the camera 20 is arranged at a position for receiving reflected light reflected in a direction opposite to the direction in which the infrared light emitted from the light source 10 is emitted.
  • the processing unit 3 acquires an image when turned off and an image when turned on from the photographing unit 2, and obtains a pupil image corresponding to light other than infrared light reflected by the pupil 104 in the eyeball 103 of the person to be measured 100 from the image when turned off.
  • the area P is detected, and the infrared light reflected light area Q corresponding to the reflected light of the infrared light in the eyeball 103 is detected from the lighting image.
  • the processing unit 3 determines that the sight line direction of the person to be measured 100 is on the object to be visually recognized located on the extension line in the direction opposite to the emission direction. I judge.
  • the reflected infrared light area Q does not overlap the pupil image area P, it is determined that the line of sight does not lie on the visible object located on the extension line opposite to the emitting direction.
  • the line of sight of the person to be measured 100 is directed in the direction opposite to the emission direction of the infrared light emitted from the photographing unit 2 .
  • an object to be measured e.g., if the person being measured is a driver, a meter inside the vehicle
  • it is possible to determine whether the driver is visually recognizing the meter. can be easily determined.
  • the visual recognition state determination device 1 only determines whether or not the line of sight of the person to be measured 100 is directed in the direction opposite to the direction in which the infrared light is emitted, and can reduce the load on image processing.
  • the visibility state determination device 1 can be applied to a visibility state determination system.
  • the visual recognition state determination system includes a photographing unit 2 having a light source 10, a camera 20 for photographing an eyeball 103 of a person to be measured 100 illuminated by the light source 10 and natural light other than the light source 10, and an image photographed by the photographing unit 2. and a processing device (processing unit 3) that determines whether or not the person to be measured 100 is looking at an object to be visually recognized located in the line-of-sight direction based on the above.
  • the camera 20 is arranged at a position for receiving reflected light reflected in a direction opposite to the direction in which the infrared light emitted from the light source 10 is emitted.
  • the processing device acquires an image when the light is off and an image when the light is on from the photographing unit 2, and from the image when the light is off, the pupil image area corresponding to the light other than the infrared light reflected by the pupil 104 in the eyeball 103 of the person 100 to be measured. P is detected, and an infrared light reflected light area Q corresponding to the reflected light of the infrared light is detected in the eyeball 103 from the lighting image.
  • the processing device determines that the sight line direction of the person to be measured 100 is on the object to be viewed located on the extension line in the direction opposite to the emitting direction. judge.
  • the reflected infrared light area Q does not overlap the pupil image area P, it is determined that the line of sight does not lie on the visible object located on the extension line opposite to the emitting direction.
  • the visual recognition state determination device 1 has a configuration in which one photographing unit 2 is connected to one processing section 3, but is not limited to this.
  • a plurality of imaging units 2 may be connected to one processing section 3 .
  • FIG. 13 is a schematic diagram showing a schematic configuration of a visual recognition state determination device according to a modification of the present embodiment.
  • 14 and 15 are flowcharts showing the flow of visual recognition state determination processing executed by the visual recognition state determination device according to the modification.
  • a visual recognition state determination device 1A has a plurality of photographing units 2A, 2B, 2C, 2D, and 2E.
  • a plurality of photographing units 2A to 2E in this embodiment are arranged with respect to a person to be measured 100, for example, a driver of a vehicle.
  • the photographing unit 2A is arranged in the rearview mirror inside the vehicle.
  • the viewed object 110A is a rearview mirror.
  • the imaging units 2B and 2C are arranged on the left and right side mirrors.
  • the visible objects 110B and 110C are left and right side mirrors.
  • the photographing unit 2D is arranged on the meter panel inside the vehicle.
  • the visually recognized object 110D is a meter panel.
  • the photographing unit 2E is arranged near the display of the navigation system in the passenger compartment. In this case, the viewed object 110E is the display of the navigation system.
  • the processing device 3A has the same configuration as the processing unit 3, but based on the turned-off image and the turned-on image acquired from each of the imaging units 2A to 2E, any one of the plurality of imaging units 2A to 2E is selected. It is determined whether or not there is a line-of-sight direction in the direction opposite to the emission direction corresponding to the unit 2 .
  • FIG. 14 An algorithm for visual recognition state determination executed by the visual recognition state determination device 1A will be described with reference to FIGS. 14 and 15.
  • FIG. 14 An algorithm for visual recognition state determination executed by the visual recognition state determination device 1A will be described with reference to FIGS. 14 and 15.
  • step S51 the processing device 3A causes the light source/camera control section 30 to output a turn-off signal for turning off the light source 10, thereby turning off all the light sources 10 in the imaging units 2A to 2E.
  • step S52 the processing device 3A causes the light source/camera control section 30 to output a shutter ON signal to the cameras 20, and all the cameras 20 in the photographing units 2A to 2E perform photographing.
  • the camera 20 takes a picture in response to the shutter ON signal input from the light source/camera control section 30, and outputs the data of the obtained image (light-off image) to the processing device 3A.
  • step S53 the processing device 3A performs respective pupil position detection based on the data of the off-light image input from the imaging units 2A to 2E.
  • step S54 the processing device 3A performs the above-described pupil position detection, acquires and stores pupil image regions P corresponding to the photographing units 2A to 2E.
  • the processing device 3A substitutes 0 for the counter N.
  • the counter corresponds to the number of light sources 10 .
  • counter N 5.
  • the counter N may be the number of the photographing units 2 or the number of the cameras 20 .
  • step S56 the processing device 3A adds 1 to the counter N.
  • step S57 the processing device 3A turns on the light source 10 corresponding to the N-th imaging unit 2.
  • step S58 the processing device 3A takes an image with the camera 20 corresponding to the N-th imaging unit 2.
  • step S59 the processing device 3A performs the above-described reflected light position detection, acquires and stores the infrared light reflected light area Q corresponding to the N-th imaging unit 2.
  • step S60 the processing device 3A processes the pupil image area P corresponding to the Nth imaging unit 2 obtained in step S53 and the reflected infrared light corresponding to the Nth imaging unit 2 obtained in step S69.
  • the area Q is compared with the position of the pupil image area P to determine whether or not the position of the reflected infrared light area Q overlaps with the position of the pupil image area P, and the visual recognition determination of the person 100 to be measured is performed.
  • step S61 the processing device 3A outputs the determination result determined in step S60 to the outside.
  • step S62 the processing device 3A turns off the light source 10 corresponding to the N-th imaging unit 2.
  • step S63 the processing device 3A determines whether or not the counter N has reached the same number as the number of light sources. If the numbers are not the same, the process proceeds to step S56, and steps S56 to S63 are repeated N times.
  • a visual recognition state determination device 1A includes a plurality of photographing units 2A to 2E for the visual recognition state determination device 1.
  • FIG. 1 As a result, since a plurality of photographing units 2 are arranged with respect to the person to be measured 100, for example, a photographing unit 2 is arranged for each of the plurality of visually recognized objects 110A to 110E to be viewed by the person to be measured 100. For example, it is possible to easily determine which object 110 the person to be measured 100 is looking at.
  • the visibility state determination device 1 may be configured to determine the visibility state when a human sensor or the like detects a person (person to be measured).
  • the arithmetic processing unit 31 has been described as having each processing function implemented by a single processor, but the present invention is not limited to this.
  • the arithmetic processing unit 31 may realize each processing function by combining a plurality of independent processors and having each processor execute a program. Further, the processing functions of the arithmetic processing unit 31 may be appropriately distributed or integrated in a single or a plurality of processing circuits and implemented. Moreover, the processing functions of the arithmetic processing unit 31 may be implemented entirely or in part by a program, or may be implemented by hardware such as wired logic.
  • the visual recognition state determination device 1 is applied to vehicles such as automobiles, but is not limited to this, and may be applied to ships, aircraft, etc. other than vehicles, for example. Further, the visual recognition state determination device 1 may be applied to a billboard installed on a vending machine or a wall surface on a passage. In this case, the visible object is, for example, a product sold by a vending machine, a digital signage, or the like. Further, although the visual recognition state determination device 1 is divided into the photographing unit 2 and the processing unit 3, it is not limited to this, and may be configured integrally.
  • the program executed by the processor described above is pre-installed in a memory circuit or the like and provided.
  • This program may be recorded in a computer-readable storage medium and provided as an installable or executable file for these devices. Also, this program may be provided or distributed by being stored on a computer connected to a network such as the Internet and downloaded via the network.

Abstract

【課題】測定対象者の視線方向を簡素な構成で容易に判定することができる視認状態判定装置及び視認状態判定システムを提供する。 【解決手段】視認状態判定装置1は、光源10からの赤外光で照らされた測定対象者100の眼球103を撮影する撮影ユニット2と、撮影された画像に基づき測定対象者100の視線方向を判定する処理部3とを備える。カメラ20は、赤外光の出射方向と反対方向に反射する反射光を受光する位置に配置される。処理部3は、撮影ユニット2による消灯時画像から眼球103の瞳孔104で赤外光以外の光の反射光に対応する瞳孔画像領域Pを検出し、点灯時画像から眼球103の赤外光の反射光に対応する赤外光反射光領域Qを検出する。処理部3は、瞳孔画像領域Pに対して赤外光反射光領域Qが重なっている場合、測定対象者100の視線方向が出射方向と反対方向の延長線上に位置する被視認対象物110にあると判定する。

Description

視認状態判定装置及び視認状態判定システム
 本発明は、視認状態判定装置及び視認状態判定システムに関する。
 人物が視線を向けている視認位置の検出は、カメラを主としたシステム構成で実現することができ、測定対象者に測定器を装着する必要がなく負担をかけない点で、製品搭載に有効である。このような視線計測システムでは、例えば、測定対象者の顔の位置及び目の位置をそれぞれ画像処理によって検出し、計算した視線角度から測定対象者の視認位置を検出している。視線位置を推定する際に、眼球における瞳孔の領域を高精度に検出する方法として、例えば、特許文献1が提案されている。
特開2018-88236号公報
 ところで、測定対象者の視認位置を判定する場合、測定対象者の目の位置に加えて顔の向きを精度よく検出する必要があることから、複雑な画像処理を実施しなければならず、高価な演算処理装置が必要となる。また、視認位置を計測するために、測定対象者から測定装置まで距離を測定する場合、3次元センサやレーザ照射装置、別方向からのカメラ画像等が必要となり、システムを構成するためのコストが増加するおそれがある。
 本発明は、上記課題に鑑みて成されたものであり、測定対象者の視線方向を簡素な構成で容易に判定することができる視認状態判定装置及び視認状態判定システムを提供することを目的とする。
 上記目的を達成するために、本発明に係る視認状態判定装置は、赤外光を出射する光源と、前記赤外光及び前記赤外光以外の光によって照らされた測定対象者の少なくとも眼球を撮影するカメラとを有する撮影ユニットと、前記撮影ユニットによって撮影された画像に基づいて、前記測定対象者の視線方向を判定する処理部と、を備え、前記カメラは、前記赤外光の出射方向と反対方向に反射する反射光を受光する位置に配置され、前記処理部は、前記撮影ユニットから、前記光源を消灯して撮影された消灯時画像と、前記光源を点灯して撮影された点灯時画像とを取得し、前記消灯時画像から前記赤外光以外の光によって照らされた前記測定対象者の眼球における瞳孔の瞳孔画像領域を検出し、前記点灯時画像から前記眼球において前記赤外光の反射光に対応する赤外光反射光領域を検出し、前記瞳孔画像領域に対して前記赤外光反射光領域が重なっている場合、前記測定対象者の視線方向が前記出射方向と反対方向の延長線上に位置する被視認対象物にあると判定し、前記瞳孔画像領域に対して前記赤外光反射光領域が重なっていない場合、前記視線方向が前記出射方向と反対方向の延長線上に位置する被視認対象物にないと判定する、ことを特徴とする。
 本発明に係る視認状態判定装置及び視認状態判定システムによれば、測定対象者の視線方向を簡素な構成で容易に判定することができる、という効果を奏する。
図1は、実施形態に係る視認状態判定装置の概略構成を示すブロック図である。 図2は、視認状態判定装置を構成する各部の概略構成を示す模式図である。 図3は、近赤外光の出射方向と視線方向とが一致しない状態を示す模式図である。 図4は、近赤外光の出射方向と視線方向とが一致した状態を示す模式図である。 図5は、視認状態判定装置にて実行される視認状態判定処理の流れを示すフローチャート図である。 図6は、図5のステップS3における瞳孔位置検出を説明するためのフローチャート図である。 図7は、視認状態判定装置にて実行される瞳孔検出アルゴリズムの概要を示す模式図である。 図8は、図5のステップS6における反射光位置検出の流れを示すフローチャート図である。 図9は、図8のステップS23における反射光位置検出の流れを示すフローチャート図である。 図10は、図8のステップS22における2値化した画像の一例を示す図である。 図11は、図8のステップS22における2値化した画像の一例を示す図である。 図12は、図9のステップS33にて想定面積値に最も近い面積を有する領域の抽出方法を説明するための図である。 図13は、本実施形態の変形例に係る視認状態判定装置の概略構成を示す模式図である。 図14は、変形例に係る視認状態判定装置にて実行される視認状態判定処理の流れを示すフローチャート図である。 図15は、変形例に係る視認状態判定装置にて実行される視認状態判定処理の流れを示すフローチャート図である。
 以下に、本発明の実施形態に係る視認状態判定装置及び視認状態判定システムについて図面を参照しつつ詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。以下の実施形態における構成要素には、いわゆる当業者が容易に想定できるもの、あるいは実質的に同一のものが含まれる。また、以下の実施形態における構成要素は、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。
 [実施形態]
 本実施形態における視認状態判定装置1は、被視認対象物に対する人物の視認状態を判定するものである。視認状態判定装置1は、図1に示すように、1つの撮影ユニット2と、当該撮影ユニット2に接続された処理部3とを含んで構成される。撮影ユニット2は、例えば、被視認対象物(不図示)上または被視認対象物の近傍に配置され、人物を撮影した画像の画像データを処理部3に出力する。処理部3は、処理装置の一例であり、撮影ユニット2から入力された画像データに基づいて所定の処理を行い、当該画像データに対応する画像に写っている人物が被視認対象物を視認しているか否かを判定する。ここで被視認対象物は、例えば自動車に搭載されたディスプレイやメータ類である。撮影ユニット2は、光源10と、カメラ20とを含んで構成される。光源10及びカメラ20は、例えば、1枚の基板40上に互いに隣接して配置される(図3、図4)。また、基板40上には、処理部3が配置される。
 光源10は、例えば、撮影ユニット2の外部に向けて近赤外光を出射するLED(Light Emitting Diode)である。近赤外光は、波長が凡そ0.7~2.5μmの電磁波であり、赤色の可視光線に近い波長を有し、例えば、「見えない光」として、赤外線カメラや赤外線通信等に利用されている。光源10は、処理部3から入力された点灯信号に応じて点灯(赤外光を発光)し、消灯信号に応じて消灯する。光源10は、被視認対象物上または被視認対象物の近傍に配置される。光源10は、指向性が高い光を出射するものであることが好ましい。
 カメラ20は、光源10の近傍に配置され、撮影ユニット2外側に設定される撮影範囲(例えば画角α)を撮影する。カメラ20は、撮影ユニット2外側に設定される撮影範囲に測定対象者100が存在する場合、光源10から出射された赤外光、または、赤外光以外の光(例えば自然光)によって照らされた測定対象者100を撮影する。カメラ20は、測定対象者100の顔101または眼球103を撮影できる位置に配置される。測定対象者100は、視認状態の判定対象となる人物である。カメラ20は、光源10から出射される赤外光の出射方向と反対方向に反射する反射光を受光する位置に配置される。カメラ20が赤外光の出射方向と反対方向に反射する反射光を受光する位置に配置された場合、当該カメラ20の光軸と光源10の光軸とは重なる。カメラ20の光軸と光源10の光軸とが重なるとは、両方の光軸が同軸になることであるが、両方の光軸が並行であって反射光が受光可能な位置であればよい。カメラ20は、少なくとも顔101全体が十分な解像度で撮影できることが好ましい。撮影範囲は、アプリケーションより要求される検出したい範囲より決めることができる。アプリケーションは、例えば、自動販売機の興味の計測、デジタルサイネージ等の広告の視認者の自動カウント、ディスプレイシステムの視認時のみ点灯させる(または輝度をあげる)といったものがある。カメラ20は、センサモジュール21と、レンズモジュール29とで構成される。センサモジュール21は、レンズモジュール29を介して結像した像を電気信号に変換して画像データとして出力する。レンズモジュール29は、複数の光学レンズを鏡筒に組み込んで構成され、被写体をイメージセンサ22上に結像させる。
 センサモジュール21は、図2に示すように、イメージセンサ22と、システムコントローラ23と、イメージシグナルプロセッサ24と、I2Cインターフェース25と、アウトプットインターフェース26とを含んで構成される。
 イメージセンサ22は、被写体の光学像を電気信号に変換するものであり、システムコントローラ23、イメージシグナルプロセッサ24に接続されている。イメージセンサ22は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。イメージセンサ22は、CCD(Charge-Coupled Device)イメージセンサ等の他の種類のイメージセンサであってもよい。
 システムコントローラ23は、センサモジュール専用のCPU(Central Processing Unit)であり、イメージシグナルプロセッサ24に接続され、これらを制御する。
 イメージシグナルプロセッサ24は、イメージセンサ22から出力された生の画像信号(例えばRAWデータ)に対して画像処理を行う。イメージシグナルプロセッサ24は、光学系の補正、欠陥画素の補正、ノイズ除去、高画質化のために明るさ、色、エッジなどの補正を行う。イメージシグナルプロセッサ24は、アウトプットインターフェース26を介して画像データを処理部3へ出力する。
 I2Cインターフェース25は、例えば、2線式の配線ハードウェアを利用し、処理部3との間でカメラ設定信号等の入力を行う。カメラ設定信号は、I2Cインターフェース25を介して処理部3からイメージシグナルプロセッサ24に入力される。
 処理部3は、光源/カメラ制御部30と、演算処理部31とを含んで構成される。
 光源/カメラ制御部30は、演算処理部31から入力される制御信号に応じて、光源10に対して点灯信号または消灯信号を出力して光源10の発光を制御する。また、光源/カメラ制御部30は、演算処理部31から入力される制御信号に応じて、カメラ20に対してシャッターON信号を出力して、カメラ20のシャッター駆動を制御する。ここで制御信号は、例えば、イネーブル信号、ディスエイブル信号、レジスタの設定データなどを含む。
 演算処理部31は、例えば、視認状態判定装置1における各種処理機能を実現する処理回路(不図示)を有する。処理回路は、例えば、プロセッサによって実現される。プロセッサとは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路を意味する。演算処理部31は、例えば、不図示の記憶回路(記憶部)から読み出したプログラムを実行することにより、各処理機能を実現する。また、演算処理部31は、複数の画像を記憶部に記憶することが可能であり、記憶部に記憶された画像を読み出して画像処理を行う。
 演算処理部31は、カメラ20から入力された画像を画像処理し、測定対象者100の視線方向が光源10から出射される近赤外光の出射方向と反対方向にあるか否かを判定する視認判定機能を有する。具体的に、演算処理部31は、撮影ユニット2から、光源10を消灯して撮影された消灯時画像と、光源10を点灯して撮影された点灯時画像とを取得する。演算処理部31は、取得した消灯時画像から測定対象者100の眼球103における瞳孔104で赤外光以外の光の反射光に対応する瞳孔画像領域Pを検出する。瞳孔画像領域Pは、図3、図4に示すように、各点灯時画像50,50Aにおける瞳孔104が占める画像領域である。演算処理部31は、取得した点灯時画像から測定対象者100の眼球103において近赤外光の反射光に対応する赤外光反射光領域Qを検出する。赤外光反射光領域Qは、図3、図4に示すように、各点灯時画像50,50Aにおける反射光が占める画像領域である。この反射光は、光源10から出射される赤外光の出射方向と反対方向に反射する反射光である。
 図3に示す点灯時画像50及び図4に示す点灯時画像50Aは、それぞれが撮影ユニット2に得られるものである。点灯時画像50,50Aには、測定対象者100の眼球103に対応する眼球画像領域51、瞳孔104に対応する瞳孔画像領域P、近赤外光の反射光に対応する赤外光反射光領域Qが含まれる。点灯時画像50では、瞳孔画像領域Pと、赤外光反射光領域Qとが重なっていない状態にある。一方、点灯時画像50Aでは、瞳孔画像領域Pと、赤外光反射光領域Qとが重なっている状態にある。
 演算処理部31は、検出した瞳孔画像領域Pの位置と赤外光反射光領域Qの位置とを比較し、図4に示すように、瞳孔画像領域Pの位置に対して赤外光反射光領域の位置が重なっていると判定した場合、測定対象者100の視線方向が出射方向と反対方向の延長線上に位置する被視認対象物にあると判定する。この場合、処理部3が、測定対象者100の視線方向が被視認対象物(または撮影ユニット2)を向いていることを示す判定結果信号を外部に出力してもよい。一方、演算処理部31は、図3に示すように、瞳孔画像領域Pの位置に対して赤外光反射光領域の位置が重なっていない場合、測定対象者100の視線方向が出射方向と反対方向の延長線上に位置する被視認対象物にないと判定する。この場合、処理部3が判定結果を外部に出力しないことで、測定対象者100の視線が被視認対象物に向いていないことを表すようにしてもよいし、処理部3が、測定対象者100の視線方向が被視認対象物(または撮影ユニット2)に向いていないことを示す判定結果信号を外部に出力してもよい。
 次に、視認状態判定装置1にて実行される視認状態判定のアルゴリズムについて図5を参照して説明する。
 ステップS1では、演算処理部31は、光源/カメラ制御部30に制御信号を出力し、光源/カメラ制御部30から光源10を消灯させる消灯信号を出力させて、光源10を消灯させる。なお、光源10を消灯させるために光源/カメラ制御部30が消灯信号を出力するようにしているが、これに限らず、光源10へのLEDパルス駆動信号の出力を停止してもよい。
 ステップS2では、演算処理部31は、光源/カメラ制御部30に制御信号を出力することで、光源/カメラ制御部30からカメラ20にシャッターON信号を出力させて、カメラ20による撮影を行う。カメラ20は、光源/カメラ制御部30から入力されたシャッターON信号に応じて撮影を行い、得られた画像(消灯時画像)のデータを演算処理部31に出力する。
 ステップS3では、演算処理部31は、カメラ20から入力された消灯時画像のデータに基づいて瞳孔位置検出を行う。瞳孔位置検出の詳細は後述する。
 ステップS4では、演算処理部31は、光源/カメラ制御部30に制御信号を出力し、光源/カメラ制御部30から光源10を点灯させる点灯信号を出力させて、光源10を点灯させる。なお、光源10を点灯させるために光源/カメラ制御部30が点灯信号を出力するようにしているが、これに限らず、光源10へのLEDパルス駆動信号の出力を開始してもよい。
 ステップS5では、演算処理部31は、光源/カメラ制御部30に制御信号を出力することで、光源/カメラ制御部30からカメラ20にシャッターON信号を出力させて、カメラ20による撮影を行う。カメラ20は、光源/カメラ制御部30から入力されたシャッターON信号に応じて撮影を行い、得られた画像(点灯時画像)のデータを演算処理部31に出力する。
 ステップS6では、演算処理部31は、カメラ20から入力された点灯時画像のデータに基づいて反射光位置検出を行う。反射光位置検出の詳細は後述する。
 ステップS7では、演算処理部31は、ステップS3で得られた瞳孔画像領域Pと、ステップS6で得られた赤外光反射光領域Qとを比較し、瞳孔画像領域Pの位置に対して赤外光反射光領域Qの位置が重なっているか否かを判定し、測定対象者100の視認判定を行う。
 ステップS8では、演算処理部31は、ステップS7で判定された判定結果を外部に出力して、本処理を終了する。
 次に、図5のステップS3における瞳孔位置検出のアルゴリズムの詳細について図6を参照して説明する。
 ステップS11では、演算処理部31は、カメラ20から消灯時画像の映像信号を1フレーム分取り込む。
 ステップS12では、演算処理部31は、グレースケール化を含む、画像のデータ形式の変換(下処理)を行う。例えば、1フレーム内の画素位置毎に、輝度を「0~255」の範囲の階調で表す8ビットデータを、撮影時のフレーム内走査方向に合わせて縦方向及び横方向に並べた二次元(2D)配列の画像データを生成する。
 ステップS13では、演算処理部31は、例えば「Viola-Jones法」を用いて顔検出を行い、1フレームの二次元画像データの中から顔を含む顔画像領域を抽出する。例えば、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔画像領域を抽出する。「Viola-Jones法」の技術は、例えば以下の文献に示されている。「P.viola and M.J.Jones,Rapid Object Detection Using a Boosted Cascade of Simple Features, IEEE CVPR(2001).」
 ステップS14では、演算処理部31は、ステップS13で抽出した顔画像領域から、例えば上述したViola-Jones法を用いて目102に対応する目画像領域を抽出する。
 ステップS15では、演算処理部31は、ステップS14で検出した目102に対応する矩形領域のデータについて、テンプレートマッチングの手法を適用して、瞳孔104の粗探索を行う。具体的には、目102周辺を切り出した目画像領域を2値化した画像に対して、テンプレートとして黒丸画像をマッチングさせて最も尤度の大きかった黒丸画像の画像中心(黒丸の中心)の座標を目画像領域中の瞳孔104の中心位置とし、最も尤度の大きかった黒丸画像の半径を目画像領域中の瞳孔104の半径とする。なお、演算処理部31は、瞳孔104が検出できなかった場合は、測定対象者100の視線方向が被視認対象物(または撮影ユニット2)を向いていないものと判定してもよい。
 ステップS16では、演算処理部31は、ステップS15で探索した瞳孔104の中心位置及び半径を利用し、パーティクルフィルタの手法を適用して、より精度の高い瞳孔104の中心位置の座標及び中心位置からの半径を検出する。演算処理部31は、1フレームの画像について、検出した瞳孔104の中心位置の座標及び中心位置からの半径を記憶部に記憶する。
 ここで、上記ステップS15,S16における瞳孔画像領域Pの探索処理の詳細について図7を参照して説明する。
 D41では、演算処理部31は、1フレーム全体の消灯時画像の中から目及びその周辺の矩形領域を目画像領域として切り出す。
 D42では、演算処理部31は、切り出した目画像領域に基づいて、画素毎の階調が黒/白の二値のみになるように2値化したデータを生成し、このデータに対してテンプレートマッチングを実施する。すなわち、瞳孔104の形状に似た黒丸形状の画像をテンプレートとして利用し、このテンプレートを画像上で走査しながら、特徴が尤も似ている大凡の瞳孔104の位置を探索し、その位置および瞳孔の半径または直径を特定する。
 D43では、演算処理部31は、切り出した目画像領域に対して、ソーベルフィルタによるエッジ検出を行う。具体的には、目画像領域に対して、左から右に向かって水平方向に順次に走査し、輝度変化のない部分では黒(階調値:0)を出力し、輝度変化の勾配が大きいほど白(階調値:255)に近づくようにして、エッジを検出する。
 D44では、演算処理部31は、D42で得られた大凡の瞳孔104の位置を起点とし、D43で検出されたエッジ検出された目画像領域に対してパーティクルフィルタの処理を行い、瞳孔画像領域Pを取得する(D45)。
 次に、図5のステップS6における反射光位置検出のアルゴリズムの詳細について図8を参照して説明する。
 ステップS21では、演算処理部31は、図5のステップS3の瞳孔位置検出にて抽出した顔画像領域に対応する顔画像領域の(座標)位置に基づいて、点灯時画像から目周辺を含む目画像領域を抽出する。ここで演算処理部31は、後段の処理のために、顔画像領域から目画像領域をグレースケールにして切り出し、当該目画像領域に対応する画像を拡大、縮小処理により、予め設定されたサイズに変換する。なお、ステップS31では、演算処理部31は、図5のステップS3の瞳孔位置検出にて抽出した顔画像領域に対応する顔画像領域の(座標)位置に基づいて、点灯時画像から目画像領域を抽出しているが、これに限定されるものではない。例えば、演算処理部31は、図6のステップS12~ステップS15の処理により点灯時画像から目画像領域を抽出するものであってもよい。
 ステップS22では、演算処理部31は、ステップS21で抽出した目画像領域に対して2値化の処理を行う。ここでは、演算処理部31は、閾値を利用し、閾値以上の画素については画素値を1とし、閾値より低い画素は0とする。光源10がLEDである場合、反射光は高い輝度値(白色)であることから、閾値は200以上の高い(明るい)値を設定するとよい。例えば、図10に示す点灯時画像50Bに対して2値化処理が行われた場合、例えば、赤外光反射光領域Qに対応する領域Rが、閾値以上の輝度値を有するものとして明確になる。2値化された目画像領域50Baは、点灯時画像50Bを2値化処理したものであり、領域Rが白色、領域R以外が黒色となっている。図11に示す点灯時画像50Cに対して2値化処理を行った場合、2値化された目画像領域50Caでは、領域R1,R2,R3が白色、領域R1~R3以外が黒色となっている。2値化された目画像領域50Caにおいて、領域R3が、赤外光反射光領域Qに対応する領域となる。
 ステップS23では、演算処理部31は、ステップS22で2値化した目画像領域に対して反射光位置探索を行う。反射光位置探索の詳細は後述する。
 ステップS24では、演算処理部31は、ステップS23で検出した赤外光反射光領域Qの位置を記憶部に記憶(保存)して、リターンする。
 次に、図8のステップS23における反射光位置探索のアルゴリズムの詳細について図9を参照して説明する。
 ステップS31では、演算処理部31は、2値化した目画像領域に対して領域分割を行う。演算処理部31は、図11に示すように、2値化した目画像領域50Caにおいて、隣接する画素値が1(2値化された目画像領域における白色部分)の画素を結合し、いくつかの領域に分割する。図示例では、2つの領域R1~R3に分割される。
 ステップS32では、演算処理部31は、ステップS31で分割した各領域(R,R1~R3)の面積を算出する。面積は、各領域の画素値の数と対応する。例えば、K番目の領域Rkに対応する面積Akは次式(1)で求められる。
 Ak=n(Rk)       ・・・(1)
  n(Rk):領域Rk(k:1,2,…)に含まれる点の個数
 ステップS33では、演算処理部31は、ステップS32で算出した複数の領域Rkのうち、想定面積値に最も近い面積を有する領域Rkを抽出する。光源10の大きさは一定であり、切り出した目画像領域の大きさを固定値にした上で拡大縮小されているため、反射光も一定の大きさに映ることが想定される。そのため、赤外光反射光領域Qに対応する面積を想定面積値として設定し、その面積値に最も近いものを抽出する。図12に示すように、領域R1に対応する領域面積は236[mm]、領域R2に対応する領域面積は91[mm]、領域R3に対応する領域面積が28[mm]となった場合、想定面積値30[mm]に最も近い面積を有する領域R3が抽出される。ここで想定面積値は、事前に設定する必要があり、例えば、赤外光の大きさやカメラから顔までの想定距離によって算出することができる。
 ステップS34では、演算処理部31は、ステップS33で抽出した領域R3に基づいて、その中心位置を算出して、本処理をリターンする。具体的には、演算処理部31は、抽出した領域R3に対応する赤外光反射光領域Qの中心位置の座標C(x,y)を求める。ここで中心位置は、全画素の座標値を足し合わせて画素数で割った値となる。演算処理部31は、求めた赤外光反射光領域Qの中心位置の座標C(x,y)を記憶部に記憶する。
Figure JPOXMLDOC01-appb-M000001
 
 
 
 C(x,y):赤外光反射光領域の中心位置の座標
 T(x,y):赤外光反射光領域内にある点Tの座標値
 Rn:赤外光反射光領域に含まれる点群の集合であり、ここでは目画像領域50CaにおけるR3の集合を指す。
 このように、視認状態判定装置1は、図5のステップS3で得られた瞳孔画像領域Pと、ステップS6で得られた赤外光反射光領域Qの位置関係に基づいて、測定対象者100の視線方向が出射方向と反対方向の延長線上に位置する被視認対象物にあるか否かを判定する。ここで、瞳孔画像領域Pに対して赤外光反射光領域Qが重なっている場合、測定対象者100の視線方向が被視認対象物(または撮影ユニット2)を向いているものと判定する。一方、瞳孔画像領域Pに対して赤外光反射光領域Qが重なっていない場合、測定対象者100の視線方向が被視認対象物(または撮影ユニット2)を向いていないものと判定する。
 瞳孔画像領域Pに対して赤外光反射光領域Qが重なっていると判定する条件には、瞳孔画像領域P内にある全画素の座標値に対して赤外光反射光領域Q内にある全画素の座標値が、例えば80%以上重なっていることが含まれる。または、瞳孔画像領域Pに対して赤外光反射光領域Qが重なっていると判定する条件には、例えば、瞳孔画像領域Pの中心位置の座標に対して赤外光反射光領域Qの中心位置の座標同士が重なっていることが含まれる。さらに、瞳孔画像領域Pの中心位置の座標に対して赤外光反射光領域Qの中心位置の座標が離間している場合、離間している値(距離)が閾値(画素値)以下である場合には、2つの反射光領域P,Qが重なっていると判定してもよい。または、瞳孔画像領域P内にある全画素の座標値に対して赤外光反射光領域Q内にある全画素の座標値が、例えば80%以上重なっていない場合であっても、瞳孔画像領域Pの中心位置の座標と赤外光反射光領域Qの中心位置の座標との離間距離(画素値)が閾値以下であるときは、2つの反射光領域P,Qが重なっていると判定してもよい。または、瞳孔画像領域Pの中心位置の座標と赤外光反射光領域Qの中心位置の座標との離間距離(画素値)が閾値以下でない場合であっても、瞳孔画像領域P内にある全画素の座標値に対して赤外光反射光領域Q内にある全画素の座標値が、例えば80%以上重なっているときは、2つの反射光領域P,Qが重なっていると判定してもよい。なお、上記80%の割合は、一例であり、これに限定されるものではない。
 なお、瞳孔画像領域Pに対して赤外光反射光領域Qが重なっていない場合であっても、瞳孔画像領域Pの中心位置と赤外光反射光領域Qの中心位置との離間距離(画素値)が予め設定された閾値(画素値)以内であれば、2つの反射光領域P,Qが重なっていると判定してもよい。上記閾値は、いずれも任意に設定可能であるが、測定対象者100の視線方向が略被視認対象物(または撮影ユニット2)を向いているとみなされる値であることが好ましい。
 以上説明した視認状態判定装置1は、赤外光を出射する光源10、及び、光源10により照らされた測定対象者100の眼球103を撮影するカメラ20を有する撮影ユニット2と、撮影ユニット2により撮影された画像に基づいて、測定対象者100の視線方向を判定する処理部3とを備える。カメラ20は、光源10から出射される赤外光の出射方向と反対方向に反射する反射光を受光する位置に配置される。処理部3は、撮影ユニット2から消灯時画像と点灯時画像をそれぞれ取得し、消灯時画像から測定対象者100の眼球103における瞳孔104で赤外光以外の光の反射光に対応する瞳孔画像領域Pを検出し、点灯時画像から眼球103において赤外光の反射光に対応する赤外光反射光領域Qを検出する。処理部3は、瞳孔画像領域Pに対して赤外光反射光領域Qが重なっている場合、測定対象者100の視線方向が出射方向と反対方向の延長線上に位置する被視認対象物にあると判定する。一方、瞳孔画像領域Pに対して赤外光反射光領域Qが重なっていない場合、視線方向が出射方向と反対方向の延長線上に位置する被視認対象物にないと判定する。
 上記構成により、測定対象者100の視線が撮影ユニット2から出射された赤外光の出射方向と反対方向に向いているか否かを容易に判定することができる。例えば、赤外光の出射方向と反対方向の延長線上に被測定対象物(例えば、測定対象者がドライバーであれば車室内のメータ等)があれば、ドライバーが当該メータを視認しているか否かを容易に判定することができる。また、従来、測定対象者100の視線方向をより精度よく検出するために、例えば、測定対象者100の顔101の位置及び目102の位置を検出した後、瞳孔104の位置を特定する等、複雑な画像処理を複数回に渡って行わなければならない。上記視認状態判定装置1は、測定対象者100の視線が赤外光の出射方向と反対方向に向いているか否かを判定するのみであり、画像処理にかかる負荷を低減することができる。
 上記視認状態判定装置1は、視認状態判定システムに対して適用することができる。視認状態判定システムは、光源10と、光源10及び光源10以外の自然光によって照らされた測定対象者100の眼球103を撮影するカメラ20とを有する撮影ユニット2と、撮影ユニット2によって撮影された画像に基づいて、測定対象者100の視線方向に位置する被視認対象物を視ているか否かを判定する処理装置(処理部3)とを備える。カメラ20は、光源10から出射される赤外光の出射方向と反対方向に反射する反射光を受光する位置に配置される。処理装置は、撮影ユニット2から消灯時画像と点灯時画像をそれぞれ取得し、消灯時画像から測定対象者100の眼球103における瞳孔104で赤外光以外の光の反射光に対応する瞳孔画像領域Pを検出し、点灯時画像から眼球103において赤外光の反射光に対応する赤外光反射光領域Qを検出する。処理装置は、瞳孔画像領域Pに対して赤外光反射光領域Qが重なっている場合、測定対象者100の視線方向が出射方向と反対方向の延長線上に位置する被視認対象物にあると判定する。一方、瞳孔画像領域Pに対して赤外光反射光領域Qが重なっていない場合、視線方向が出射方向と反対方向の延長線上に位置する被視認対象物にないと判定する。
 上記構成により、上述した視認状態判定装置1で得られる効果と同様の効果を得ることができる。
 [変形例]
 上記実施形態では、視認状態判定装置1は、1つの処理部3に対して1つの撮影ユニット2が接続された構成を有するが、これに限定されるものではない。例えば、1つの処理部3に対して複数の撮影ユニット2が接続されていてもよい。図13は、本実施形態の変形例に係る視認状態判定装置の概略構成を示す模式図である。図14及び図15は、変形例に係る視認状態判定装置にて実行される視認状態判定処理の流れを示すフローチャート図である。
 変形例に係る視認状態判定装置1Aは、複数の撮影ユニット2A,2B,2C,2D,2Eを有する。本実施形態における撮影ユニット2A~2Eは、測定対象者100、例えば車両のドライバーに対して複数配置される。撮影ユニット2Aは、車室内のバックミラーに配置される。この場合、被視認対象物110Aは、バックミラーである。撮影ユニット2B,2Cは、左右のサイドミラーに配置される。この場合、被視認対象物110B,110Cは、左右のサイドミラーである。撮影ユニット2Dは、車室内のメータパネルに配置される。この場合、被視認対象物110Dは、メータパネルである。撮影ユニット2Eは、車室内のナビゲーションシステムのディスプレイ近傍に配置される。この場合、被視認対象物110Eは、ナビゲーションシステムのディスプレイである。
 処理装置3Aは、処理部3と同様の構成を有するが、各撮影ユニット2A~2Eから取得した消灯時画像及び点灯時画像に基づいて、複数の撮影ユニット2A~2Eのうち、いずれかの撮影ユニット2に対応する出射方向と反対方向に視線方向があるか否かを判定する。
 次に、視認状態判定装置1Aにて実行される視認状態判定のアルゴリズムについて図14、図15を参照して説明する。
 図14において、ステップS51では、処理装置3Aは、光源/カメラ制御部30から光源10を消灯させる消灯信号を出力させて、撮影ユニット2A~2Eにおける全ての光源10を消灯させる。
 ステップS52では、処理装置3Aは、光源/カメラ制御部30からカメラ20にシャッターON信号を出力させて、撮影ユニット2A~2Eにおける全てのカメラ20による撮影を行う。カメラ20は、光源/カメラ制御部30から入力されたシャッターON信号に応じて撮影を行い、得られた画像(消灯時画像)のデータを処理装置3Aに出力する。
 ステップS53では、処理装置3Aは、撮影ユニット2A~2Eから入力された消灯時画像のデータに基づいてそれぞれの瞳孔位置検出を行う。
 ステップS54では、処理装置3Aは、上述した瞳孔位置検出を行い、撮影ユニット2A~2Eに対応する瞳孔画像領域Pを取得して記憶する。
 ステップS55では、処理装置3Aは、カウンタNに0を代入する。カウンタは、光源10の数に対応している。例えば、カウンタN=5である。なお、カウンタNは、撮影ユニット2の数であっても、カメラ20の数であってもよい。
 ステップS56では、処理装置3Aは、カウンタNに1を加算する。ステップS57では、処理装置3Aは、N番目の撮影ユニット2に対応する光源10を点灯させる。ステップS58では、処理装置3Aは、N番目の撮影ユニット2に対応するカメラ20で撮影を行う。
 図15において、ステップS59では、処理装置3Aは、上述した反射光位置検出を行い、N番目の撮影ユニット2に対応する赤外光反射光領域Qを取得して記憶する。
 ステップS60では、処理装置3Aは、ステップS53で得られたN番目の撮影ユニット2に対応する瞳孔画像領域Pと、ステップS69で得られたN番目の撮影ユニット2に対応する赤外光反射光領域Qとを比較し、瞳孔画像領域Pの位置に対して赤外光反射光領域Qの位置が重なっているか否かを判定し、測定対象者100の視認判定を行う。
 ステップS61では、処理装置3Aは、ステップS60で判定された判定結果を外部に出力する。ステップS62では、処理装置3Aは、N番目の撮影ユニット2に対応する光源10を消灯する。
 ステップS63では、処理装置3Aは、カウンタNが光源数と同数になったか否かを判定し、カウンタNが光源数と同数になった場合は、ステップS51に戻る一方、カウンタNが光源数と同数になっていない場合、ステップS56へ移行し、ステップS56~S63をN回繰り返す。
 上記実施形態の変形例に係る視認状態判定装置1Aは、視認状態判定装置1に対して複数の撮影ユニット2A~2Eを備える。これにより、撮影ユニット2が測定対象者100に対して複数配置されているので、例えば、測定対象者100が見るべき複数の被視認対象物110A~110Eのそれぞれに撮影ユニット2が配置されていれば、測定対象者100がどの被視認対象物110を視ているかを容易に判定することができる。
 また、上記実施形態及び変形例では、視認状態判定装置1は、人感センサ等で人(測定対象者)を検出した場合に、視認状態を判定するように構成されていてもよい。
 また、上記実施形態及び変形例では、本発明を視認状態判定装置1に適用した場合について説明したが、撮影ユニット2と、処理部3に相当する処理装置とを備える視認状態判定システムに適用しても、上述した効果を得ることが可能である。
 また、上記実施形態及び変形例では、演算処理部31は、単一のプロセッサによって各処理機能が実現されるものとして説明したがこれに限らない。演算処理部31は、複数の独立したプロセッサを組み合わせて各プロセッサがプログラムを実行することにより各処理機能が実現されてもよい。また、演算処理部31が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、演算処理部31が有する処理機能は、その全部又は任意の一部をプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。
 また、上記実施形態及び変形例では、視認状態判定装置1は、自動車等の車両に適用されているが、これに限定されず、例えば車両以外の船舶や航空機等に適用してもよい。また、視認状態判定装置1は、自動販売機や通路上の壁面に設置された広告板に適用してもよい。この場合、被視認対象物は、例えば、自動販売機で販売されている商品であり、デジタルサイネージ等である。また、視認状態判定装置1は、撮影ユニット2と、処理部3とに分かれているが、これに限定されず、一体で構成されていてもよい。
 以上で説明したプロセッサによって実行されるプログラムは、記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。
 1 視認状態判定装置
 2 撮影ユニット
 3 処理部
 10 光源
 20 カメラ
 21 センサモジュール
 22 イメージセンサ
 23 システムコントローラ
 24 イメージシグナルプロセッサ
 25 I2Cインターフェース
 26 アウトプットインターフェース
 29 レンズモジュール
 30 光源/カメラ制御部
 31 演算処理部
 40 基板
 50,50A 点灯時画像
 51 眼球画像領域
 100 測定対象者
 101 顔
 102 目
 103 眼球
 104 瞳孔
 110,110A,110B,110C,110D,110E 被視認対象物
 P 瞳孔画像領域
 Q 赤外光反射光領域
 R 領域

Claims (3)

  1.  赤外光を出射する光源と、前記赤外光及び前記赤外光以外の光によって照らされた測定対象者の少なくとも眼球を撮影するカメラとを有する撮影ユニットと、
     前記撮影ユニットによって撮影された画像に基づいて、前記測定対象者の視線方向を判定する処理部と、を備え、
     前記カメラは、
     前記赤外光の出射方向と反対方向に反射する反射光を受光する位置に配置され、
     前記処理部は、
     前記撮影ユニットから、前記光源を消灯して撮影された消灯時画像と、前記光源を点灯して撮影された点灯時画像とを取得し、
     前記消灯時画像から前記赤外光以外の光によって照らされた前記測定対象者の眼球における瞳孔の瞳孔画像領域を検出し、
     前記点灯時画像から前記眼球において前記赤外光の反射光に対応する赤外光反射光領域を検出し、
     前記瞳孔画像領域に対して前記赤外光反射光領域が重なっている場合、前記測定対象者の視線方向が前記出射方向と反対方向の延長線上に位置する被視認対象物にあると判定し、
     前記瞳孔画像領域に対して前記赤外光反射光領域が重なっていない場合、前記視線方向が前記出射方向と反対方向の延長線上に位置する被視認対象物にないと判定する、
     ことを特徴とする視認状態判定装置。
  2.  前記撮影ユニットは、
     前記測定対象者に対して複数配置され、
     前記処理部は、
     各前記撮影ユニットから取得した前記消灯時画像及び前記点灯時画像に基づいて、複数の前記撮影ユニットのうち、いずれかの撮像ユニットに対応する出射方向と反対方向の延長線上に視線方向があるかを判定する、
     請求項1に記載の視認状態判定装置。
  3.  赤外光を出射する光源と、前記赤外光及び前記赤外光以外の光によって照らされた測定対象者の少なくとも眼球を撮影するカメラとを有する撮影ユニットと、
     前記撮影ユニットによって撮影された画像に基づいて、前記測定対象者の視線方向に位置する被視認対象物を視ているか否かを判定する処理装置と、を備え、
     前記カメラは、
     前記赤外光の出射方向と反対方向に反射する反射光を受光する位置に配置され、
     前記処理装置は、
     前記撮影ユニットから、前記光源を消灯して撮影された消灯時画像と、前記光源を点灯して撮影された点灯時画像とを取得し、
     前記消灯時画像から前記赤外光以外の光によって照らされた前記測定対象者の眼球における瞳孔の瞳孔画像領域を検出し、
     前記点灯時画像から前記眼球において前記赤外光の反射光に対応する赤外光反射光領域を検出し、
     前記瞳孔画像領域に対して前記赤外光反射光領域が重なっている場合、前記測定対象者の視線方向が前記出射方向と反対方向の延長線上に位置する前記被視認対象物にあると判定し、
     前記瞳孔画像領域に対して前記赤外光反射光領域が重なっていない場合、前記視線方向が前記出射方向と反対方向の延長線上に位置する前記被視認対象物にないと判定する、
     ことを特徴とする視認状態判定システム。
PCT/JP2022/042401 2021-11-29 2022-11-15 視認状態判定装置及び視認状態判定システム WO2023095679A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021192665A JP2023079280A (ja) 2021-11-29 2021-11-29 視認状態判定装置及び視認状態判定システム
JP2021-192665 2021-11-29

Publications (1)

Publication Number Publication Date
WO2023095679A1 true WO2023095679A1 (ja) 2023-06-01

Family

ID=86539562

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/042401 WO2023095679A1 (ja) 2021-11-29 2022-11-15 視認状態判定装置及び視認状態判定システム

Country Status (2)

Country Link
JP (1) JP2023079280A (ja)
WO (1) WO2023095679A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008029702A (ja) * 2006-07-31 2008-02-14 National Univ Corp Shizuoka Univ 瞳孔を検出する方法及び装置
JP2020179040A (ja) * 2019-04-26 2020-11-05 株式会社富士通コンピュータテクノロジーズ 視線検出システム、視線検出装置、及び視線検出方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008029702A (ja) * 2006-07-31 2008-02-14 National Univ Corp Shizuoka Univ 瞳孔を検出する方法及び装置
JP2020179040A (ja) * 2019-04-26 2020-11-05 株式会社富士通コンピュータテクノロジーズ 視線検出システム、視線検出装置、及び視線検出方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KITAZUMI. KAZUNORI ET AL.: "Pupil Detection from Visible Light Corneal Image Using Deep Learning and Application to Gaze Estimation", IEICE TECHNICAL REPORT, vol. 117, no. 392, 2018, XP009546095 *

Also Published As

Publication number Publication date
JP2023079280A (ja) 2023-06-08

Similar Documents

Publication Publication Date Title
JP7369921B2 (ja) 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法
US10440355B2 (en) Depth mapping with a head mounted display using stereo cameras and structured light
US9852339B2 (en) Method for recognizing iris and electronic device thereof
KR100682067B1 (ko) 차량 전조등들이나 또는 타의 차량 장비를 제어하기 위한 영상 처리 시스템
CN107113408B (zh) 图像处理装置、图像处理方法、程序和系统
JP5435307B2 (ja) 車載カメラ装置
US20090278922A1 (en) Image sensor with integrated region of interest calculation for iris capture, autofocus, and gain control
US10482347B2 (en) Inspection of the contoured surface of the undercarriage of a motor vehicle
US20230179841A1 (en) Gating camera
JP6553624B2 (ja) 計測機器、及びシステム
JP5071198B2 (ja) 信号機認識装置,信号機認識方法および信号機認識プログラム
JP2013005234A5 (ja)
JP6782433B2 (ja) 画像認識装置
JP2917953B2 (ja) 視点位置検出装置
JP2010088045A (ja) ナイトビューシステム、夜間歩行者表示方法
CN110199294A (zh) 为机动车检测交通灯阶段的设备和方法
EP2976990B1 (en) Pupil detection device and pupil detection method
WO2023095679A1 (ja) 視認状態判定装置及び視認状態判定システム
JP6011173B2 (ja) 瞳孔検出装置および瞳孔検出方法
JP2007089094A (ja) 歩行者検知装置
WO2021060397A1 (ja) ゲーティングカメラ、自動車、車両用灯具、画像処理装置、画像処理方法
US10829042B2 (en) Imaging apparatus with image sensor for detecting light in an atmospheric peak and vehicle having same
US11272086B2 (en) Camera system, vehicle and method for configuring light source of camera system
US20160321509A1 (en) Image processing device, warning device and method for processing image
WO2013062401A1 (en) A machine vision based obstacle detection system and a method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22898463

Country of ref document: EP

Kind code of ref document: A1