WO2022018830A1 - 撮像装置及び情報処理装置 - Google Patents

撮像装置及び情報処理装置 Download PDF

Info

Publication number
WO2022018830A1
WO2022018830A1 PCT/JP2020/028315 JP2020028315W WO2022018830A1 WO 2022018830 A1 WO2022018830 A1 WO 2022018830A1 JP 2020028315 W JP2020028315 W JP 2020028315W WO 2022018830 A1 WO2022018830 A1 WO 2022018830A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
incident surface
prism
image pickup
incident
Prior art date
Application number
PCT/JP2020/028315
Other languages
English (en)
French (fr)
Inventor
将利 西村
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/028315 priority Critical patent/WO2022018830A1/ja
Priority to JP2022538533A priority patent/JP7281060B2/ja
Publication of WO2022018830A1 publication Critical patent/WO2022018830A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B17/00Systems with reflecting surfaces, with or without refracting elements
    • G02B17/08Catadioptric systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Definitions

  • the present disclosure relates to an image pickup device that images a plurality of subject areas and an information processing device that uses the image pickup device.
  • an image pickup device that can capture a plurality of subject areas by dividing the area to be imaged into a vertical direction, a horizontal direction, or the like.
  • the image pickup device is provided with a prism in which all the planes of the entrance surface and the exit surface are formed in a plane shape, and the light emitted from each of a plurality of subject areas in front of the image pickup device is divided by the prism and imaged from the prism.
  • a plurality of subject areas were imaged by emitting light to the element side (see, for example, Patent Document 1).
  • the present disclosure has been made to solve the above-mentioned problems, and an object of the present disclosure is to provide an imaging device that captures a plurality of subject areas clearly and with high definition.
  • the image pickup apparatus is provided with a prism having a first incident surface, a second incident surface, and an exit surface for guiding light emitted from a subject region, and is provided behind the prism and guided from the prism.
  • a prism having a first incident surface, a second incident surface, and an exit surface for guiding light emitted from a subject region, and is provided behind the prism and guided from the prism.
  • an imaging optical system on which light is incident and an imaging element provided behind the imaging optical system that receives light guided from the imaging optical system and converts it into an electric signal.
  • the incident surface is a concave surface having a negative power
  • light emitted from the first subject area facing the first incident surface in the subject area is incident
  • the second incident surface is a concave surface having a negative power.
  • the light emitted from the second subject area facing the second incident surface is incident, and the exit surface is a convex surface having positive power and is the first incident surface.
  • the light incident on the second incident surface is emitted toward the imaging optical system.
  • the information processing device is provided inside the vehicle and has a first subject area including an occupant seated in the driver's seat of the vehicle and a second subject area including an occupant seated in the passenger seat of the vehicle.
  • An image pickup device for imaging, an electric signal converted from light emitted from a first subject area, and an electric signal converted from light emitted from a second subject area are acquired from an image pickup element of the image pickup device. Then, at least one of the occupant seated in the driver's seat and the occupant seated in the passenger seat from the image generated by the image generation unit that generates the image in which the first subject area and the second subject area are captured.
  • It is provided with a detection unit that detects the face information of the vehicle and an estimation unit that estimates at least one of the states of the occupant seated in the driver's seat and the occupant seated in the passenger seat using the face information detected by the detection unit. be.
  • FIG. 1 It is a top view which shows schematic the structure of the image pickup apparatus which concerns on Embodiment 1.
  • FIG. It is a side view which shows schematic the structure of the image pickup apparatus which concerns on Embodiment 1.
  • FIG. It is explanatory drawing for comparing the optical path of the prism which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the structure of the information processing apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the hardware configuration example of the control device which concerns on Embodiment 1.
  • FIG. It is a top view which shows schematic the structure of the image pickup apparatus which concerns on Embodiment 2.
  • FIG. 1 shows schematic the structure of the image pickup apparatus which concerns on Embodiment 1.
  • the left-right direction of the image pickup device 100 is the X-axis direction
  • the vertical direction of the image pickup device 100 is the Y-axis direction
  • the image pickup direction of the image pickup device 100 is the Z-axis direction.
  • the direction in which the subject is present in the imaging direction that is, the + Z-axis direction is referred to as the front
  • the ⁇ Z-axis direction is referred to as the rear.
  • the + X-axis direction is referred to as the right side and the ⁇ X-axis direction is referred to as the left side with respect to the front of the image pickup apparatus 100.
  • the + Y-axis direction is referred to as upward
  • the -Y-axis direction is referred to as downward.
  • the upper part is, for example, the direction of the sky, and the lower part is the direction of the ground.
  • FIG. 1 is a top view schematically showing the configuration of the image pickup apparatus 100 according to the first embodiment.
  • FIG. 2 is a side view schematically showing the configuration of the image pickup apparatus 100 according to the first embodiment.
  • FIG. 1 is a view of the image pickup apparatus 100 from above, and
  • FIG. 2 is a view of the image pickup apparatus 100 as viewed from the left side.
  • FIG. 3 is a perspective view schematically showing the configuration of the image pickup apparatus 100 according to the first embodiment.
  • the image pickup device 100 includes an image pickup element 1 that converts received light into an electric signal, a prism 2 that guides light emitted from a subject area, and a prism 2. It is provided with an image pickup optical system 3 to which light guided from the light source is incident.
  • an image pickup optical system 3 to which light guided from the light source is incident.
  • the image pickup element 1 is an element capable of converting the intensity of light into an electric signal, and has, for example, an aggregate in which light receiving elements are arranged on a two-dimensional array.
  • the image sensor 1 converts the light emitted from the subject area into an electric signal, and digitizes the electric signal to obtain an image in which the subject area is captured.
  • the image pickup device 1 may be an image sensor such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor) as long as the received light can be converted into an electric signal.
  • the imaging region is divided into, for example, a first imaging region 11, a second imaging region 12, a third imaging region 13, and a fourth imaging region 14.
  • the first image pickup region 11 is a region in the image pickup element 1 in the + X axis direction from the optical axis C1 of the image pickup optical system 3
  • the second image pickup region 12 is a connection in the image pickup element 1. It is a region in the ⁇ X axis direction from the optical axis C1 of the image optical system 3.
  • the third image pickup region 13 is a region in the image pickup element 1 in the direction from the optical axis C1 of the image pickup optical system 3 to the ⁇ Y axis
  • the fourth image pickup region 14 is the image pickup optical system 3 in the image pickup element 1. It is a region in the + Y-axis direction from the optical axis C1 of. In this way, the image pickup region of the image pickup device 1 is divided into a plurality of regions.
  • the imaging optical system 3 guides the light guided from the prism 2 described below onto the image pickup element 1 to form an image. Further, the imaging optical system 3 has a first optical lens 31 and a second optical lens 32 arranged in front of the image pickup element 1, respectively.
  • the first optical lens 31 and the second optical lens 32 are each formed in a rotationally symmetric shape with respect to the optical axis C1, and the first optical lens 31 and the second optical lens 32 are arranged in this order toward the rear.
  • the first optical lens 31 and the second optical lens 32 are each made of a material that transmits light, such as a transparent resin, glass, or silicone, and transmit and refrain the light guided from the prism 2. Further, the light that has passed through the imaging optical system 3 is focused on the image pickup element 1 due to the transmission and refraction actions of the first optical lens 31 and the second optical lens 32.
  • the first optical lens 31 and the second optical lens 32 are arranged in parallel, and their outer diameter centers are arranged on the same axis.
  • the configuration of the imaging optical system 3 is such that the light guided from the prism 2 is imaged on the image pickup element 1, the image pickup element 1 is focused by using a reflecting mirror (not shown). You may.
  • the optical lens of the imaging optical system 3 is composed of two optical lenses, a first optical lens 31 and a second optical lens 32, has been described.
  • the imaging optical system 3 can be miniaturized without a complicated configuration.
  • the imaging optical system 3 may be provided with a diaphragm portion 33 as shown in FIGS. 1 and 2.
  • the diaphragm portion 33 is formed in an annular shape with, for example, a material having a light-shielding property, and is arranged so as to surround the optical axis C1.
  • the diaphragm portion 33 may be arranged in either the first optical lens 31 or the second optical lens 32.
  • the diaphragm portion 33 is arranged on the rear surface of the first optical lens 31. If the diaphragm unit 33 is provided, the diaphragm unit 33 blocks light and functions as a diaphragm of the imaging optical system 3, so that the amount of light taken into the imaging optical system 3 can be adjusted.
  • the prism 2 is arranged in front of the imaging optical system 3, and emits the incident surface 21 on which the light emitted from the subject region is incident and the light incident on the incident surface 21 toward the imaging optical system 3 side. It has an exit surface 22 to be formed. Further, the first incident surface 211 and the second incident surface 212 are collectively referred to as an incident surface 21. In the example of FIG. 1, the surface on the right side with respect to the front of the image pickup apparatus 100 is the first incident surface 211, and the surface on the left side with respect to the front of the image pickup apparatus 100 is the second incident surface 212.
  • the first incident surface 211 and the second incident surface 212 of the prism 2 are concave surfaces, respectively, and are recessed inside the prism 2.
  • the exit surface 22 of the prism 2 is a convex surface and protrudes toward the imaging optical system 3.
  • the concave first incident surface 211 and the second incident surface 212 have a negative power to diverge the incident light, and the convex exit surface 22 concentrates the emitted light.
  • the power means a refractive power.
  • first incident surface 211, the second incident surface 212, and the exit surface 22 of the prism 2 have a curvature in the horizontal direction (X-axis direction in FIG. 1) and are formed in a rotationally asymmetrical shape.
  • the entrance surface 21 and the exit surface 22 of the prism 2 are composed of a cylindrical surface having power only in the X-axis direction.
  • the cylindrical surface refers to a surface shape having positive or negative power in only one direction.
  • the power of each of the incident surface 21 and the exit surface 22 can be appropriately designed depending on the curvature, the refractive index of the material constituting the prism, and the like.
  • the prism 2 is front of the incident surface 21, the exit surface 22, and the front of the prism 2 between the first incident surface 211 and the second incident surface 212 when viewed from above the image pickup apparatus 100. That is, the front surface 23 provided on the side opposite to the exit surface 22 forms a polygonal shape.
  • the polygonal shape includes a shape in which at least one of the sides constituting the polygon is curved.
  • the prism 2 has a rectangular shape when viewed from the side of the image pickup apparatus 100.
  • the quadrangular shape includes a trapezoid and a rhombus, and includes a quadrangle in which at least one of the sides constituting the quadrangle is curved.
  • first incident surface 211 and the second incident surface 212 of the prism 2 are toroidal surfaces having curvatures in the horizontal direction and the vertical direction (Y-axis direction in FIG. 1), respectively, if they have a negative power. You may.
  • the exit surface 22 of the prism 2 may be a toroidal surface having curvatures in the horizontal direction and the vertical direction as long as it has a positive power. In this way, if at least one of the incident surface 21 and the exit surface 22 of the prism 2 is formed of a toroidal surface, it is possible to correct the deviation of the image formation in the Y-axis direction in the image pickup device 1.
  • the prism 2 is housed in a case (not shown).
  • the case is made of a light-shielding material, and a window portion that transmits light is provided at a position where the window portion that transmits light corresponds to the first incident surface 211 and the second incident surface 212 of the prism 2.
  • the shape of the case and the position of the window portion can be appropriately designed according to the position, size, and the like of the subject to be imaged. Further, it is preferable not to provide a window portion at a position corresponding to the front surface 23 of the prism 2.
  • a window portion is not provided at a position corresponding to the front surface 23 of the prism 2, it is possible to prevent light emitted from a region not to be imaged from entering the prism 2 from the front surface 23 and becoming stray light. Further, the configuration of the image pickup device 100 such as the image pickup element 1 and the image pickup optical system 3 is also housed in the case.
  • the subject area on the right side is an area in the + X-axis direction with respect to the optical axis C1 in front of the image pickup apparatus 100.
  • the subject area on the left side is an area in front of the image pickup apparatus 100 in the ⁇ X axis direction with respect to the optical axis C1.
  • first incident surface 211 and the second incident surface 212 of the prism 2 are arranged so as to face the subject area on the right side and the subject area on the left side, respectively.
  • “arranged facing the subject area” means that the subject area to be imaged is arranged so as to be included in the angle of view of the incident surface 21. Since the first incident surface 211 is arranged to face the subject area on the right side, the light emitted from the subject area on the left side is not incident, and the second incident surface 212 faces the subject area on the left side. The light emitted from the subject area on the right side is not incident.
  • the light 11a and the light 11b are light emitted from the subject area on the right side, respectively.
  • the light 11a and the light 11b are refracted by the first incident surface 211 of the prism 2 and transmitted to the inside of the prism 2. Further, the light 11a and the light 11b transmitted inside the prism 2 are internally reflected by the second incident surface 212 and guided toward the exit surface 22 side. Then, the light 11a and the light 11b internally reflected by the second incident surface 212 are transmitted through the emitting surface 22 and emitted toward the imaging optical system 3. At this time, the light 11a and the light 11b are refracted by the emission surface 22 and condensed toward the imaging optical system 3, and are imaged in the first imaging region 11 of the imaging element 1 by the imaging optical system 3.
  • the light 12a and the light 12b in FIG. 1 are the light emitted from the subject area on the left side.
  • the light 12a and the light 12b are refracted by the second incident surface 212 of the prism 2 and transmitted to the inside of the prism 2. Further, the light 12a and the light 12b transmitted inside the prism 2 are internally reflected by the first incident surface 211 and guided toward the exit surface 22 side. Then, the light 12a and the light 12b internally reflected by the first incident surface 211 pass through the emission surface 22 and are emitted toward the imaging optical system 3. At this time, the light 12a and the light 12b are refracted by the emission surface 22 and condensed toward the imaging optical system 3, and are imaged in the second imaging region 12 of the imaging element 1 by the imaging optical system 3.
  • the first incident surface 211 is also a transmitting surface that refracts the light 11a and the light 11b, and is also a reflecting surface that internally reflects the light 12a and the light 12b.
  • the second incident surface 212 is also a transmitting surface that refracts the light 12a and the light 12b, and is also a reflecting surface that internally reflects the light 11a and the light 11b. That is, the incident surface 21 has a role of transmitting and refracting light from one direction and a role of internally reflecting light from another direction.
  • each of the first incident surface 211 and the second incident surface 212 has a plurality of roles, when imaging a plurality of subject areas, a prism having one of the incident surface and the other of the reflecting surface is formed. It is not necessary to provide a plurality of images, and the image pickup device 100 can be miniaturized.
  • the emission surface 22 of the prism 2 has a positive power, that is, the light transmitted through the emission surface 22 is focused toward the image pickup element 1, the imaging performance indicating the degree of light focusing in the image pickup apparatus 100 is shown. Does not depend on the imaging optical system 3. As a result, it is not necessary to configure the imaging optical system 3 in a complicated manner in order to improve the imaging performance, and it is possible to capture a high-definition image without increasing the size of the imaging apparatus 100.
  • the first incident surface 211 and the second incident surface 212 of the prism 2 face the subject region on the right side and the subject region on the left side, respectively, the light emitted from the region not to be imaged is emitted. Even if it is incident on the prism 2, it is not guided to the imaging optical system 3 because it is emitted to the outside of the imaging optical system 3. That is, for example, the light emitted from a region other than the image pickup target, such as the rear of the prism 2, is not formed on the image pickup element 1 because it is not within the allowable range of the light that can guide the image pickup optical system 3. As a result, the image obtained by the image pickup apparatus 100 does not include the light ray information of the region outside the image pickup target.
  • the light 13a and the light 13b in FIG. 2 are light emitted from the upper region.
  • the upper region is a region in the right subject region and the left subject region in the + Y axis direction with respect to the optical axis C1.
  • the light 13a and the light 13b pass through the first incident surface 211 or the second incident surface 212 of the prism 2, respectively. Then, it is emitted from the exit surface 22 of the prism 2 and is imaged in the third imaging region 13 by the imaging optical system 3.
  • the light 14a and the light 14b in FIG. 2 are the light emitted from the lower region.
  • the lower region is a region in the right subject region and the left subject region in the ⁇ Y axis direction with respect to the optical axis C1.
  • the light 14a and the light 14b pass through the first incident surface 211 or the second incident surface 212 of the prism 2, respectively. Then, it is emitted from the exit surface 22 of the prism 2 and is imaged in the fourth imaging region 14 by the imaging optical system 3.
  • the light emitted from the upper region and the lower region, respectively, can be captured by the third imaging region 13 and the fourth imaging region 13. It is possible to correct the deviation of the image formation formed on the image pickup device 1 by adjusting which point in the region 14 the light is focused on.
  • the light in the subject area on the right side and the light in the subject area on the left side pass through the prism 2 and the imaging optical system 3 and move up and down to the first image pickup area 11 and the second image pickup area 12 of the image pickup element 1, respectively. It is imaged as an inverted image. That is, if the light emitted from the subject region is guided by the prism 2, the light emitted from each of the plurality of subject regions can be divided by the prism 2 and imaged on the image sensor 1.
  • the image obtained by the image pickup apparatus 100 can be an image divided for each subject area. Therefore, for example, each image divided for each subject area is reduced or enlarged for each image. The process to be performed can be selected.
  • the positive power of the exit surface 22 of the prism 2 is larger than at least one of the negative power of the first incident surface 211 and the negative power of the second incident surface 212. Further, the positive power of the exit surface 22 is preferably equal to the sum of the negative power of the first incident surface 211 and the negative power of the second incident surface 212.
  • the positive power is larger than the negative power, it means that the absolute value of the positive power is larger than the absolute value of the negative power.
  • the fact that the positive power is equal to the total of the negative power means that the absolute value of the positive power and the absolute value of the total of the negative power are equal. By doing so, it is possible to divide the light emitted from each of the plurality of subject areas by the prism 2 while ensuring the imaging performance by the design of the imaging optical system 3.
  • the imaging performance of the entire imaging device 100 is largely due to the design of the imaging optical system 3, and it is necessary to reduce the influence of the prism 2 on the imaging performance of the entire imaging device 100. If the power of the prism 2 is adjusted as described above, the light guided from the prism 2 to the imaging optical system 3 follows the same path as when all the surfaces of the prism are flat, so that the imaging optics It does not prevent the improvement of imaging performance by the design of the system 3. That is, as described above, if the power possessed by the prism 2 is adjusted, the light emitted from the plurality of subject areas by the prism 2 can be divided while ensuring the imaging performance by the design of the imaging optical system 3. Can be done.
  • FIG. 4 is an explanatory diagram for comparing the optical paths of the prisms according to the first embodiment.
  • the prism 2 according to the present embodiment is shown by a solid line.
  • the prism 2A having the emission surface 22 having a planar shape is shown by a dotted line.
  • the light 110a, the light 111a, the light 112a, and the light 113a in FIG. 4 are peripheral rays of a light beam formed at a certain point on the first imaging region 11, respectively.
  • the peripheral light beam means a light beam formed through the outermost side of the light flux formed at a certain point.
  • the light 110a and the light 111a are light rays when the emission surface 22 of the prism 2 has a positive power.
  • the light 112a and the light 113a are light rays when the emission surface 22A of the prism 2A has a planar shape.
  • the light 112a is internally reflected by the second incident surface 212 and travels toward the first incident surface 211, and is emitted from the first incident surface 211 to the subject region on the right side. Further, the light 113a is internally reflected by the first incident surface 211 and travels toward the second incident surface 212, and is emitted from the second incident surface 212 to the subject region on the left side.
  • the light 112a emitted from the right subject area is imaged in the first imaging area 11
  • the light 113a emitted from the left subject area is imaged in the second imaging area 12. Is preferable.
  • the light 113a is imaged in the first imaging region 11.
  • the exit surface 22A of the prism 2A has a planar shape
  • the light emitted from a certain point in the first image pickup region 11 is emitted from the first incident surface 211 and the second incident surface 212. That is, when the emission surface 22 of the prism 2 has a planar shape, the light 112a emitted from the subject area on the right side and the light 113a emitted from the subject area on the left side are the first incident surface 211 and the second incident surface 212, respectively. Is incident from, and is imaged on the same point of the image pickup element 1.
  • the image obtained by the image pickup apparatus provided with the prism 2A of the comparative example is the light rays included in the light from the left and right subject areas.
  • the information is mixed and unclear. Since the light focused near the center of the image sensor 1 is incident from the front side on the incident surface 21, the light formed near the center of the image sensor 1 tends to include peripheral rays. Therefore, the image obtained by the image pickup apparatus provided with the prism 2A of the comparative example becomes unclear toward the center of the image. Further, when the image pickup optical system 3 is a bright optical system, that is, a configuration that captures more light, the light formed on the image pickup element 1 tends to include peripheral rays. Therefore, the image pickup apparatus provided with the prism 2A of the comparative example cannot capture more light in order to obtain a clear image.
  • the light 110a and the light 111a guided to the second incident surface 212 are converted into parallel light again by the negative power of the second incident surface 212.
  • the light guided to the second incident surface 212 is internally reflected by the second incident surface 212 and emitted from the first incident surface 211. That is, it can be explained that the image on the first imaging region 11 is composed of the ray information of the subject region on the right side without mixing the ray information of the subject region on the left side.
  • the emitting surface 22 has a positive power as in the prism 2 according to the present embodiment
  • the light emitted from the first imaging region 11 is emitted from the first incident surface 211.
  • the light emitted from the second imaging region 12 is also emitted from the second incident surface 212 according to the same explanation, that is, the image on the second incident region 12 is mixed with the light ray information of the subject region on the right side. It can be explained that it is composed of the light ray information of the subject area on the left side.
  • the incident surface 21 of the prism 2 has a negative power and the emitted surface 22 has a positive power
  • the light emitted from a certain point in the first imaging region 11 is emitted from the first incident surface 211.
  • the light emitted from a certain point in the second imaging region 12 is emitted from the second incident surface 212.
  • the image pickup apparatus 100 can obtain a clear and high-definition image without mixing the light ray information contained in the light emitted from different subject areas.
  • the first subject area corresponds to the subject area on the right side
  • the second subject area corresponds to the subject area on the left side. The first subject area and the second subject area do not overlap.
  • the image on the first imaging region 11 is composed of the ray information of the subject region on the right side, and the second image is formed.
  • the image on the image pickup region 12 is composed of the light ray information of the subject region on the left side.
  • the image obtained by the image pickup device 100 becomes clear and high-definition even in the vicinity of the center of the image pickup device 1.
  • the imaging optical system 3 is a bright optical system, the peripheral rays incident from the first incident surface 211 and the second incident surface 212 are imaged in the first imaging region 11 and the second imaging region 12, respectively. The optical system.
  • the imaging optical system 3 is a bright optical system, it is possible to obtain a clear and high-definition image without mixing the light ray information of different subject areas.
  • the light emitted from a plurality of subject areas such as upper and lower and diagonally may be divided by the prism 2.
  • the prism 2 is arranged so that the first incident surface 211 and the second incident surface 212 of the prism 2 face the upper and lower subject areas, respectively.
  • the position and angle may be adjusted.
  • the first subject area corresponds to the upper subject area
  • the second subject area corresponds to the lower subject area.
  • the image pickup device 100 is guided by the prism 2 having the first incident surface 211, the second incident surface 212, and the exit surface 22 that guides the light emitted from the subject region, and the prism 2.
  • the first incident surface 211 includes an imaging optical system 3 to which light is incident and an imaging element 1 that receives light guided from the imaging optical system 3 and converts it into an electric signal, and the first incident surface 211 has a negative power.
  • the second incident surface 212 is a concave surface having a negative power and is a surface having a surface on the second incident surface 212.
  • the light emitted from the second incident surface region is incident, the exit surface 22 is a convex surface having positive power, and the light incident from the first incident surface 211 and the second incident surface 212 is the imaging optical system 3. If it is emitted toward the surface, it is possible to capture a plurality of subject areas clearly and with high definition.
  • FIG. 5 is a block diagram showing a configuration of the information processing apparatus 10 according to the first embodiment.
  • the information processing device 10 includes an image pickup device 100 provided on the mobile body and a control device 200 that performs processing based on the image captured by the image pickup device 100.
  • the image pickup device 100 is used as an in-vehicle camera provided inside a vehicle such as an automobile, and the information processing device 10 detects the face of an occupant on the vehicle captured by the image pickup device 100.
  • the target moving object to which the information processing device 10 is applied is not limited to a vehicle such as an automobile, but can also be applied to a ship or the like.
  • the image pickup device 100 images the inside of the vehicle at intervals of, for example, about 30 to 60 fps (frames per second), and outputs the electric signal converted by the image pickup element 1 to the control device 200.
  • FIG. 6 is an explanatory diagram showing a subject area according to the first embodiment.
  • the image pickup device 100 may be one or more units, an instrument panel inside the vehicle, a steering column, a rearview mirror, etc. so that the driver 53 and the passenger 54 seated in the driver's seat 51 and the passenger seat 52 can be imaged, respectively. Placed in.
  • the driver 53 and the passenger 54 who are seated in the driver's seat 51 and the passenger seat 52, respectively, are collectively referred to as a occupant.
  • the first incident surface 211 of the image pickup apparatus 100 is arranged to face the driver's seat 51, and the second incident surface 212 is arranged to face the passenger seat 52.
  • the right side subject area in front of the image pickup apparatus 100 that is, the area corresponding to the subject area including the occupant seated in the driver's seat 51 is referred to as the first subject area.
  • the left subject area in front of the image pickup apparatus 100 that is, the area corresponding to the subject area including the occupant seated in the passenger seat 52 is referred to as the second subject area.
  • the first subject area and the second subject area do not overlap.
  • the image pickup apparatus 100 is provided between the driver's seat 51 and the passenger seat 52, and is arranged on the instrument panel of the vehicle. Further, in the example of FIG. 6, the area 41 indicates the first subject area, and the area 42 indicates the second subject area.
  • the light in the first subject region and the light in the second subject region are guided to the prism 2 and the imaging optical system 3 of the image pickup apparatus 100, respectively, and are brought into the first image pickup region 11 and the second image pickup region 12 of the image pickup element 1. It is imaged as an inverted image. Then, the image pickup device 1 converts the received light into an electric signal, and outputs this electric signal to the control device 200.
  • the image on the first image pickup region 11 is based on the light ray information of the subject region on the right side.
  • the image on the second imaging region 12 is composed of the light ray information of the subject region on the left side. That is, the light ray information of the subject area including the occupant seated in the driver's seat 51 and the light ray information of the subject area including the occupant seated in the passenger seat 52 are not mixed.
  • the control device 200 includes an image generation unit 201 that acquires an electric signal from the image pickup element 1 of the image pickup device 100 and generates an image from the electric signal, and a detection unit 202 that detects an occupant from the image generated by the image generation unit 201.
  • the detection unit 202 includes an estimation unit 203 for estimating the state of the occupant detected by the detection unit 202.
  • the image generation unit 201 acquires an electric signal from the image sensor 1 and generates an image.
  • the electric signal acquired from the image pickup element 1 includes information indicating how much intensity of light is imaged on each pixel of the image pickup element 1, that is, the density value of each pixel.
  • the image generation unit 201 generates an image showing the light imaged on the image pickup device 1 by using the density value of each pixel from the electric signal.
  • the image generated by the image generation unit 201 is a clear and high-definition image in which the ray information of different subject areas is not mixed.
  • the image generation unit 201 may be provided in the image pickup apparatus 100.
  • the image generation unit 201 classifies the electric signal acquired from the first image pickup region 11 of the image pickup element 1 and the electric signal acquired from the second image pickup region 12 to generate an image.
  • the image generation unit 201 may add identification information indicating which of the first subject area and the second subject area is captured, to the classified images.
  • the processing performed by the detection unit 202 and the estimation unit 203 using the image can be changed depending on the type of occupant such as the driver 53 and the passenger 54.
  • processing such as reducing or enlarging each image divided for each subject area may be performed. For example, by enlarging the image obtained by capturing the first subject region, which is the region including the driver's seat 51, the accuracy of the processing performed by the detection unit 202 on the image captured by the driver 53 can be improved.
  • the detection unit 202 acquires an image from the image generation unit 201 and analyzes it. Then, the occupant present in the image is detected.
  • the detection unit 202 analyzes the image and acquires a region where the occupant's face is detected (hereinafter referred to as a face region) and characteristic information of the occupant's face in the face region.
  • the detection unit 202 acquires the coordinates related to the face area surrounding the occupant's face, such as a rectangle in contact with the contour of the occupant's face, from the image.
  • the coordinates related to the face area are, for example, the coordinates of each vertex, center, etc. of the rectangle when the face area is a rectangle.
  • the detection unit 202 calculates the width, height, area, etc. of the face region from the coordinates of the face region.
  • the facial feature information of the occupant is, for example, the contrast ratio of facial elements such as eyes, nose, mouth, cheeks, and the distance between each facial element after normalizing the size of the face. be. Then, the detection unit 202 outputs the acquired coordinates of the face region and the feature information of the face to the estimation unit 203.
  • the coordinates of the face area and the feature information of the face are collectively referred to as face information.
  • the image obtained by the image pickup apparatus 100 is not a mixture of the light ray information of the subject area on the driver's seat 51 side and the light ray information of the subject area on the passenger seat 52 side, and the face of the occupant is clearly captured. Since the image is displayed, the detection unit 202 can accurately acquire the face information of the occupant.
  • the face information may include not only information on the occupant's face such as movements of the occupant's head, hands and shoulders, and gestures, but also information on the occupant's body other than the face.
  • the estimation unit 203 estimates the occupant's condition using the face information acquired by the detection unit 202.
  • the state of the occupant refers to the degree of eye opening, face orientation, and the like. Further, the estimation unit 203 may specify the occupant and perform personal authentication by using the face information.
  • the distance between the upper eyelid and the lower eyelid may be calculated.
  • the estimation unit 203 estimates the face orientation of the occupant, for example, the face orientation may be estimated depending on the position of the nose in the face region.
  • personal authentication is performed by the estimation unit 203, for example, the face information and the individual are recorded in a storage unit (not shown) in association with each other, and the captured face information of the occupant and the stored face information of the occupant are recorded. The occupants may be identified by comparing with.
  • the estimation unit 203 estimates the occupant's state as described above, and transmits information indicating the occupant's state (hereinafter referred to as state information) to the vehicle control device 300 described below via the output unit 204.
  • state information information indicating the occupant's state
  • the individual and the physique may be associated and recorded in the storage unit.
  • the vehicle control device 300 shown in FIG. 5 is a device that controls each device provided in the vehicle equipped with the information processing device 10.
  • the vehicle control device 300 controls each device provided in the vehicle by using the state information acquired from the estimation unit 203.
  • the control of each device provided in the vehicle includes, for example, adjustment of the position and inclination of the seats of the driver's seat 51 and the passenger seat 52, control of the sound device, switching of the operation mode of the vehicle, adjustment of air conditioning, and the like. Is.
  • An example of control of each device using the state information acquired from the estimation unit 203 of the vehicle control device 300 is shown. For example, if the state information acquired from the estimation unit 203 includes information indicating that the driver 53 has a small degree of eye opening, that is, the driver 53 feels drowsy, the vehicle control device 300 eliminates the drowsiness. Control the air conditioning so that it does. Further, if the state information acquired from the estimation unit 203 includes information indicating that the face orientation of the driver 53 is not normal, that is, the driver 53 is not gazing at the traveling direction, the vehicle control device 300 is required. Generate a warning sound from the sound device. Further, if the state information acquired from the estimation unit 203 includes information indicating that the passenger 54 has been identified by personal authentication, the vehicle control device 300 places the seat in a position suitable for the physique of the passenger 54. Adjust to tilt.
  • the door is unlocked, the door is opened, the seat belt is fastened, the ignition is turned on, the human sensor is turned on, the shift lever is moved to the drive position, and the vehicle speed exceeds 0 km / h.
  • the navigation device detects vehicle information such as the guidance has started or the own vehicle has left the home, the image pickup device 100 outputs a signal for starting the image pickup inside the vehicle.
  • the vehicle control device 300 for example, the seat belt is removed, the ignition is turned off, the human sensor is turned off, the shift lever is moved to the parking position, the navigation device finishes the guidance, and the own vehicle returns to the home.
  • a signal for ending the image pickup inside the vehicle is output to the image pickup device 100.
  • the control device 200 is made to acquire the vehicle information from the vehicle control device 300, and the image pickup device 100 is imaged based on the acquired vehicle information. It suffices to instruct the start or the end of.
  • FIG. 7 is a diagram showing a hardware configuration example of the control device 200 according to the first embodiment.
  • the image generation unit 201, the detection unit 202, the estimation unit 203, and the output unit 204 of the control device 200 may be a processing circuit 200a which is dedicated hardware as shown in FIG. 7A, or may be a processing circuit 200a. As shown in 7 (b), it may be a processor 200b that executes a program stored in the memory 200c.
  • the processing circuit 200a may be, for example, a single circuit or a composite circuit.
  • a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-programmable Gate Array), or a combination thereof is applicable.
  • the functions of the image generation unit 201, the detection unit 202, the estimation unit 203, and the output unit 204 may be realized by a processing circuit, or the functions of each unit may be collectively realized by one processing circuit.
  • the function of each unit is software, firmware, or a combination of software and firmware. Is realized by.
  • the software or firmware is described as a program and stored in the memory 200c.
  • the processor 200b realizes each function of the image generation unit 201, the detection unit 202, the estimation unit 203, and the output unit 204 by reading and executing the program stored in the memory 200c.
  • the image generation unit 201, the detection unit 202, the estimation unit 203, and the output unit 204 are memories for storing a program in which the above-mentioned processing is eventually executed when the processor 200b executes the image generation unit 201, the detection unit 202, the estimation unit 203, and the output unit 204. It is equipped with 200c. Further, it can be said that these programs cause a computer to execute the processing procedure or method of the image generation unit 201, the detection unit 202, the estimation unit 203, and the output unit 204.
  • the processor 200b is, for example, a CPU (Central Processing Unit), a processing device, a computing device, a processor, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.
  • the memory 200c may be, for example, a non-volatile or volatile semiconductor memory such as a RAM (RandomAccessMemory), a ROM (ReadOnlyMemory), a flash memory, an EPROM (ErasableProgrammableROM), or an EEPROM (ElectricallyEPROM).
  • a magnetic disk such as a hard disk or a flexible disk, or an optical disk such as a mini disk, a CD (Compact Disc), or a DVD (Digital Versatile Disc).
  • the information processing apparatus 10 includes a first subject area provided inside the vehicle and including an occupant seated in the driver's seat 51 of the vehicle, and a second subject area including an occupant seated in the passenger seat 52 of the vehicle.
  • the electric signal of the light emitted from the first subject area and the electric signal of the light emitted from the second subject area are acquired from the image pickup element 1 of the image pickup device 100, and the first subject is taken.
  • the detection unit 202 that detects face information and an estimation unit 203 that estimates the state of the occupant using the face information detected by the detection unit 202
  • the light ray information of the subject area on the driver's seat 51 side and the light beam information can be obtained. It is possible to capture a clear and high-definition image in which the light information of the subject area on the passenger seat 52 side is not mixed, and improve the accuracy of the processing performed on the captured image of the occupant.
  • the imaging optical system 3 has two optical lenses of the first optical lens 31 and the second optical lens 32 in the present embodiment
  • the optical lens of the imaging optical system 3 has been described.
  • the number is not limited.
  • the imaging performance can be improved by increasing the number of optical lenses.
  • the prism 2 has a triangular shape due to the entrance surface 21 and the emission surface 22 when viewed from above the image pickup apparatus 100.
  • the triangular shape includes a shape in which at least one of the sides constituting the triangle is curved.
  • the information processing device 10 detects and estimates the occupant seated in the driver's seat 51 and the occupant seated in the passenger seat 52 .
  • the state may be estimated by detecting either the occupant who is seated or the occupant who is seated in the passenger seat 52.
  • a part of each function of the image generation unit 201, the detection unit 202, the estimation unit 203, and the output unit 204 is realized by dedicated hardware, and a part is realized by software or firmware. You may do so.
  • the processing circuit 200a in the face detection device can realize each of the above-mentioned functions by hardware, software, firmware, or a combination thereof. Further, at least a part of the functions of the image generation unit 201, the detection unit 202, the estimation unit 203, and the output unit 204 may be executed by an external server.
  • FIG. 8 is a top view schematically showing the configuration of the image pickup apparatus 101 according to the second embodiment.
  • the image pickup apparatus 101 according to the present embodiment has an image pickup element 1 that converts the received light into an electric signal, and emits light toward the image pickup element 1 and connects the light to the image pickup element 1.
  • the image forming optical system 3 to be imaged and the prism 2 that divides the light emitted from the first subject area and the second subject area and guides the light to the image forming optical system 3 are provided, and the incident surface 21 of the prism 2 is provided.
  • the exit surface 22 has a negative power and the exit surface 22 has a positive power.
  • a light-shielding portion 24 is provided on the front surface 23 of the prism 2.
  • the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the prism 2 is the front of the incident surface 21, the exit surface 22, and the prism 2 between the first incident surface 211 and the second incident surface 212 when viewed from above the image pickup device 101. That is, the front surface 23 provided on the side opposite to the exit surface 22 forms a polygonal shape.
  • the polygonal shape includes a shape in which at least one of the sides constituting the polygon is curved.
  • the light emitted from the first subject region is incident on the first incident surface 211 of the prism 2, and the light emitted from the second subject region is incident on the second incident surface 212.
  • the first subject area is the subject area on the right side and the second subject area is the subject area on the left side will be described.
  • the light incident on the front surface 23 of the prism 2 becomes stray light.
  • the image obtained by the image pickup device 101 becomes unclear. Therefore, it is necessary to block the light incident on the front surface 23 of the prism 2.
  • the front surface 23 of the prism 2 of the present embodiment is provided with a light-shielding portion 24 made of a material having a light-shielding property, and the light incident on the front surface 23 of the prism 2 by the light-shielding portion 24, that is, the right side. The light emitted from the area between the subject area and the subject area on the left side is blocked.
  • the light 11a and the light 11b are the lights emitted from the subject area on the right side, respectively.
  • the light 11a and the light 11b are refracted by the first incident surface 211 of the prism 2 and transmitted to the inside of the prism 2. Further, the light 11a and the light 11b transmitted inside the prism 2 are internally reflected by the second incident surface 212 to be guided toward the exit surface 22 side. Then, the light 11a and the light 11b reflected by the second incident surface 212 pass through the emission surface 22 and are emitted toward the imaging optical system 3. At this time, the light 11a and the light 11b are refracted by the emission surface 22, and are imaged in the first image pickup region 11 of the image pickup element 1 by the image pickup optical system 3.
  • the light 12a and the light 12b in FIG. 8 are the light emitted from the subject area on the left side.
  • the light 12a and the light 12b are refracted by the second incident surface 212 of the prism 2 and transmitted to the inside of the prism 2. Further, the light 12a and the light 12b transmitted inside the prism 2 are internally reflected by the first incident surface 211 to be guided toward the exit surface 22 side. Then, the light 12a and the light 12b reflected by the first incident surface 211 pass through the emission surface 22 and are emitted toward the imaging optical system 3. At this time, the light 12a and the light 12b are refracted by the emission surface 22, and are imaged in the second image pickup region 12 of the image pickup element 1 by the image pickup optical system 3.
  • the light 15 in FIG. 8 is a luminous flux formed near the center of the image pickup device 1.
  • the light 15 emitted from the imaging optical system 3 toward the prism 2 passes through the exit surface 22 of the prism 2 and is guided to the first incident surface 211 or the second incident surface 212.
  • the light 15 guided to the first incident surface 211 is internally reflected by the first incident surface 211 and guided to the front surface 23 of the prism 2.
  • the light 15 guided to the second incident surface 212 is also internally reflected by the second incident surface 212 and guided to the front surface 23 of the prism 2.
  • the light 15 guided to the front surface 23 of the prism 2 is blocked by the light-shielding portion 24 and does not emit from the front surface 23 of the prism 2. That is, if the light-shielding portion 24 is provided on the front surface 23 of the prism 2, it is possible to block the light incident from the front surface 23 of the prism 2 and forming an image near the center of the image pickup device 1.
  • the image pickup apparatus 101 By providing the light-shielding portion 24 on the front surface 23 of the prism 2 of the image pickup apparatus 101 in this way, it is possible to suppress the incident light emitted from the region between the plurality of subject regions to be imaged and become stray light. It is possible to image a plurality of subject areas to be imaged clearly and with high definition. Further, if the image pickup device 101 of the present embodiment is used as an in-vehicle camera of the information processing device 10, it is possible to capture a plurality of subject areas to be imaged clearly and with high definition. On the other hand, the accuracy of the processing to be performed can be improved.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Signal Processing (AREA)

Abstract

鮮明かつ高精細に複数の被写体領域を撮像する撮像装置を提供する。 第1入射面(211)、第2入射面(212)、及び出射面(22)を有するプリズム(2)と、プリズム(2)から導光された光が入射される結像光学系(3)と、光を受光して電気信号に変換する撮像素子(1)とを撮像装置(100)に備え、第1入射面(211)は、第1入射面(211)に面する第1被写体領域から発せられた光が入射され、第2入射面(212)は、第2入射面(212)に面する第2被写体領域から発せられた光が入射され、第1入射面(211)及び第2入射面(212)はそれぞれ負のパワーを有する凹面であり、出射面(22)は正のパワーを有する凸面である。これにより、異なる被写体領域の光線情報を混合することなく、鮮明かつ高精細に複数の被写体領域を撮像できる。

Description

撮像装置及び情報処理装置
 本開示は、複数の被写体領域を撮像する撮像装置及び撮像装置を用いた情報処理装置に関する。
 被写体を撮像する撮像装置において、撮像対象の領域を上下方向、左右方向等に分割した、複数の被写体領域を撮像可能な撮像装置が開発されている。従来、撮像装置に、入射面及び出射面の全ての面が平面状に形成されたプリズムを備え、撮像装置の前方における複数の被写体領域からそれぞれ発せられた光をプリズムにより分割し、プリズムから撮像素子側へ出射して、複数の被写体領域を撮像していた(例えば、特許文献1参照。)。
特開2004-104476号公報
 しかしながら、複数の被写体領域から発せられた光がプリズムに入射する場合、プリズムの全ての面が平面形状であると、異なる被写体領域からそれぞれ発せられた光が撮像素子の同一点上に結像される。これにより、異なる被写体領域からそれぞれ発せられた光に含まれる光線情報が混合して、撮像素子上に不鮮明な像が形成されるという課題があった。
 本開示は、上述の課題を解決するためになされたもので、鮮明かつ高精細に複数の被写体領域を撮像する撮像装置を提供することを目的とする。
 本開示に係る撮像装置は、被写体領域から発せられた光を導光する、第1入射面、第2入射面、及び出射面を有するプリズムと、プリズムの後方に設けられ、プリズムから導光された光が入射される結像光学系と、結像光学系の後方に設けられ、結像光学系から導光された光を受光して電気信号に変換する撮像素子と、を備え、第1入射面は、負のパワーを有する凹面であり、被写体領域のうち第1入射面に面する第1被写体領域から発せられた光が入射され、第2入射面は、負のパワーを有する凹面であり、被写体領域のうち第1被写体領域と異なり、第2入射面に面する第2被写体領域から発せられた光が入射され、出射面は、正のパワーを有する凸面であり、第1入射面及び第2入射面に入射された光が結像光学系に向けて出射されるものである。
 また、本開示に係る情報処理装置は、車両の内部に設けられ、車両の運転席に着座する乗員を含む第1被写体領域と、車両の助手席に着座する乗員を含む第2被写体領域とを撮像する、本開示に係る撮像装置と、第1被写体領域から発せられた光を変換した電気信号と第2被写体領域から発せられた光を変換した電気信号とを、撮像装置の撮像素子から取得し、第1被写体領域及び第2被写体領域が撮像された画像を生成する画像生成部と、画像生成部が生成した画像から、運転席に着座する乗員及び助手席に着座する乗員の少なくともいずれかの顔情報を検出する検出部と、検出部が検出した顔情報を用いて、運転席に着座する乗員及び助手席に着座する乗員の少なくともいずれかの状態を推定する推定部とを備えるものである。
 本開示によれば、異なる被写体領域の光線情報を混合することなく、鮮明かつ高精細に複数の被写体領域を撮像することができる。
実施の形態1に係る撮像装置の構成を概略的に示す上面図である。 実施の形態1に係る撮像装置の構成を概略的に示す側面図である。 実施の形態1に係る撮像装置の構成を概略的に示す斜視図である。 実施の形態1に係るプリズムの光路を比較するための説明図である。 実施の形態1に係る情報処理装置の構成を示すブロック図である。 実施の形態1に係る被写体領域を示す説明図である。 実施の形態1に係る制御装置のハードウェア構成例を示す図である。 実施の形態2に係る撮像装置の構成を概略的に示す上面図である。
 以下、図面に基づいて実施の形態について説明する。なお、以下の実施の形態の説明においては、説明を容易にするため、XYZ軸を用いて説明する。撮像装置100の左右方向をX軸方向、撮像装置100の上下方向をY軸方向、撮像装置100の撮像方向をZ軸方向とする。ここで、撮像方向において被写体がある方向、つまり+Z軸方向を前方といい、-Z軸方向を後方という。そして、撮像装置100の前方に対して、+X軸方向を右側といい、-X軸方向を左側という。また、+Y軸方向を上方といい、-Y軸方向を下方という。上方は、例えば、空の方向であり、下方は、地面の方向である。
実施の形態1.
 図1は、実施の形態1に係る撮像装置100の構成を概略的に示す上面図である。図2は、実施の形態1に係る撮像装置100の構成を概略的に示す側面図である。図1は、撮像装置100を上方から見た図であり、図2は、撮像装置100を左側から見た図である。また、図3は、実施の形態1に係る撮像装置100の構成を概略的に示す斜視図である。図1、図2、及び図3に示すように、撮像装置100は、受光した光を電気信号に変換する撮像素子1と、被写体領域から発せられた光を導光するプリズム2と、プリズム2から導光された光が入射する結像光学系3とを備える。以下、各構成について説明する。
<撮像素子>
 撮像素子1は、光の強弱を電気信号に変換可能な素子であり、例えば、受光素子を2次元配列上に並べた集合体を有する。撮像素子1により、被写体領域から発せられた光を電気信号に変換し、この電気信号を数値化等すれば被写体領域を撮像した画像を得ることができる。撮像素子1は、受光した光を電気信号に変換できれば、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサーであってもよい。
 次に、撮像素子1における撮像領域について説明する。撮像領域は、例えば、第1撮像領域11、第2撮像領域12、第3撮像領域13、及び第4撮像領域14に分割される。図3に示すように、第1撮像領域11は、撮像素子1における、結像光学系3の光軸C1から+X軸方向の領域であり、第2撮像領域12は、撮像素子1における、結像光学系3の光軸C1から-X軸方向の領域である。また、第3撮像領域13は、撮像素子1における、結像光学系3の光軸C1から-Y軸方向の領域であり、第4撮像領域14は、撮像素子1における、結像光学系3の光軸C1から+Y軸方向の領域である。このようにして、撮像素子1の撮像領域は、複数の領域に分割される。
<結像光学系>
 結像光学系3は、次に説明するプリズム2から導光された光を、撮像素子1上に導光して結像させる。また、結像光学系3は、撮像素子1の前方にそれぞれ配置された、第1光学レンズ31及び第2光学レンズ32を有する。第1光学レンズ31及び第2光学レンズ32は、光軸C1に対してそれぞれ回転対称形状に形成され、後方に向かって第1光学レンズ31、第2光学レンズ32の順に配置されている。
 第1光学レンズ31及び第2光学レンズ32はそれぞれ、例えば、透明樹脂、ガラス、シリコーン等の光を透過する材料で構成され、プリズム2から導光された光を透過、屈折させる。また、第1光学レンズ31及び第2光学レンズ32の透過、屈折作用により、結像光学系3を通過した光は、撮像素子1上に集光される。ここで、第1光学レンズ31及び第2光学レンズ32は平行に配置され、さらに、それぞれの外径中心が同一の軸上に配置されている。このように第1光学レンズ31及び第2光学レンズ32を配置すれば、収差を補正して結像光学系3における偏心の発生を抑制できる。
 また、結像光学系3の構成は、プリズム2から導光された光を撮像素子1上に結像させる構成であれば、撮像素子1に反射鏡(図示せず)を用いて集光させてもよい。ここで、本実施の形態において、結像光学系3の光学レンズを、第1光学レンズ31及び第2光学レンズ32の2枚の光学レンズで構成する例について説明したが、このようにすれば、結像光学系3を複雑な構成とせずに小型化することができる。
 さらに、結像光学系3には、図1及び図2に示すように、絞り部33が設けられていてもよい。絞り部33は、例えば遮光性を有する材料で円環状に形成され、光軸C1を囲んで配置される。絞り部33を結像光学系3に設ける場合、第1光学レンズ31及び第2光学レンズ32のいずれかに絞り部33を配置すればよい。図1及び図2の例では、絞り部33は、第1光学レンズ31において後方側の面に配置されている。絞り部33を備えれば、絞り部33が光を遮光して結像光学系3の絞りとして機能するため、結像光学系3に取り込む光の量を調整することができる。
<プリズム>
 プリズム2は、結像光学系3の前方に配置されており、被写体領域から発せられた光が入射する入射面21と、入射面21に入射した光を結像光学系3側に向かって出射する出射面22とを有する。また、第1入射面211及び第2入射面212をあわせて入射面21という。図1の例において、撮像装置100の前方に対して右側の面が第1入射面211であり、撮像装置100の前方に対して左側の面が第2入射面212である。
 図1等の例においては図示を省略しているが、プリズム2の第1入射面211及び第2入射面212は、それぞれ凹面であり、プリズム2の内側に窪んでいる。また、図1の例において、プリズム2の出射面22は、凸面であり、結像光学系3側に突出している。このように、プリズム2は、凹面である第1入射面211及び第2入射面212が、入射光を発散させる負のパワーを有し、凸面である出射面22が出射光を集光させる正のパワーを有する。なお、パワーとは屈折力をいう。
 また、プリズム2の第1入射面211、第2入射面212、及び出射面22は、水平方向(図1におけるX軸方向)に曲率を有し、回転非対称形状に形成されている。このように、プリズム2の入射面21及び出射面22は、X軸方向にのみパワーを有するシリンドリカル面で構成される。ここで、シリンドリカル面とは、一方向のみに正又は負のパワーを有する面形状をいう。なお、入射面21及び出射面22のそれぞれのパワーは、曲率、プリズムを構成する材料の屈折率等により適宜設計可能である。
 プリズム2は、図1に示すように、撮像装置100の上方から見た視点においては、入射面21、出射面22、及び第1入射面211と第2入射面212の間にプリズム2における前方、つまり出射面22と反対側に設けられた前面23により多角形状となる。ここで、多角形状とは、多角形を構成する各辺の少なくともいずれかが湾曲しているものを含む。一方、図2に示すように、撮像装置100の側方から見た視点においては、プリズム2は四角形状となる。ここで、四角形状とは、台形及びひし形を含み、四角形を構成する各辺の少なくともいずれかが湾曲しているものを含む。
 また、プリズム2の第1入射面211及び第2入射面212は、負のパワーを有していれば、それぞれ水平方向及び垂直方向(図1におけるY軸方向)に曲率を有するトロイダル面であってもよい。さらに、プリズム2の出射面22は、正のパワーを有していれば、水平方向及び垂直方向に曲率を有するトロイダル面であってもよい。このように、プリズム2の入射面21及び出射面22の少なくともいずれかを、トロイダル面で構成すると、撮像素子1におけるY軸方向の結像のずれを補正できる。
 なお、プリズム2はケース(図示せず)に収納されている。ケースは、遮光性を有する材料で形成され、光を透過する窓部がプリズム2の第1入射面211及び第2入射面212と対応する位置に、光を透過する窓部が設けられていると好ましい。ここで、ケースの形状、窓部の位置は、撮像対象の被写体の位置、大きさ等に応じて適宜設計可能である。さらに、プリズム2の前面23と対応する位置には窓部を設けないと好ましい。プリズム2の前面23と対応する位置には窓部を設けなければ、撮像対象外の領域から発せられた光が、前面23からプリズム2に入射して迷光になることを抑制できる。また、撮像素子1及び結像光学系3等の撮像装置100の構成もケースに収納されている。
 複数の被写体領域からそれぞれ発せられた光をプリズム2によって分割する例について、被写体領域から発せられた光の経路に基づいて説明する。以下では、プリズム2により、右側の被写体領域から発せられた光と、左側から発せられた光とを分割する例を挙げて説明する。ここで、右側の被写体領域とは、撮像装置100の前方において、光軸C1に対して+X軸方向にある領域である。一方、左側の被写体領域とは、撮像装置100の前方において、光軸C1に対して-X軸方向にある領域である。また、プリズム2の第1入射面211及び第2入射面212は、それぞれ右側の被写体領域及び左側の被写体領域に面して配置されている。ここで、被写体領域に面して配置されているとは、撮像対象の被写体領域が入射面21の画角に含まれるように配置されることをいう。なお、第1入射面211は、右側の被写体領域に面して配置されているため、左側の被写体領域から発せられた光が入射せず、第2入射面212は、左側の被写体領域に面して配置されているため、右側の被写体領域から発せられた光が入射しない。
 図1において、光11a及び光11bはそれぞれ、右側の被写体領域から発せられた光である。光11a及び光11bは、プリズム2の第1入射面211で屈折してプリズム2内部に透過する。また、プリズム2内部に透過した光11a及び光11bは、第2入射面212で内部反射して出射面22側に向けて導光される。そして、第2入射面212で内部反射した光11a及び光11bは、出射面22を透過して結像光学系3に向けて出射される。このとき、光11a及び光11bは、出射面22で屈折して結像光学系3に向けて集光され、結像光学系3によって撮像素子1の第1撮像領域11に結像される。
 一方、図1における光12a及び光12bは、左側の被写体領域から発せられた光である。光12a及び光12bは、プリズム2の第2入射面212で屈折してプリズム2内部に透過する。また、プリズム2内部に透過した光12a及び光12bは、第1入射面211で内部反射して出射面22側に向けて導光される。そして、第1入射面211で内部反射した光12a及び光12bは、出射面22を透過して結像光学系3に向けて出射される。このとき、光12a及び光12bは、出射面22で屈折して結像光学系3に向けて集光され、結像光学系3によって撮像素子1の第2撮像領域12に結像される。
 ここで、第1入射面211は、光11a及び光11bを屈折させる透過面でもあり、光12a及び光12bを内部反射させる反射面でもある。また、第2入射面212は、光12a及び光12bを屈折させる透過面でもあり、光11a及び光11bを内部反射させる反射面でもある。つまり、入射面21は一方向からの光を透過、屈折させる役割を有するとともに、他方向からの光を内部反射させる役割を有する。このように、第1入射面211及び第2入射面212のそれぞれが複数の役割を有すると、複数の被写体領域を撮像する場合に、一方が入射面、他方が反射面で構成されたプリズムを複数設ける必要がなく、撮像装置100を小型化できる。
 さらに、プリズム2の出射面22が正のパワーを有する、つまり出射面22を透過した光が撮像素子1に向けて集光されるため、撮像装置100における光の集光度合いを示す結像性能は、結像光学系3に依存しない。これにより、結像性能を向上するために結像光学系3を複雑な構成とする必要がなく、撮像装置100を大型化せずに高精細な画像を撮像することができる。
 なお、プリズム2の第1入射面211及び第2入射面212は、それぞれ右側の被写体領域及び左側の被写体領域に面して配置されているため、撮像対象外の領域から発せられた光は、プリズム2に入射したとしても結像光学系3外に出射される等して結像光学系3には導光されない。つまり、例えば、プリズム2の後方等、撮像対象外の領域から発せられた光は結像光学系3へ導光できる光の許容範囲内にないため撮像素子1上に結像されない。これにより、撮像装置100によって得られる画像には、撮像対象外の領域の光線情報は含まれない。
 また、図2における光13a及び光13bは、上方の領域から発せられた光である。ここで、上方の領域とは、右側の被写体領域及び左側の被写体領域における、光軸C1に対して+Y軸方向にある領域である。光13a及び光13bは、それぞれプリズム2の第1入射面211又は第2入射面212を透過する。そして、プリズム2の出射面22から出射されて結像光学系3により第3撮像領域13に結像される。
 一方、図2における光14a及び光14bは、下方の領域から発せられる光である。ここで、下方の領域とは、右側の被写体領域及び左側の被写体領域における、光軸C1に対して-Y軸方向にある領域である。光14a及び光14bは、それぞれプリズム2の第1入射面211又は第2入射面212を透過する。そして、プリズム2の出射面22から出射されて結像光学系3により第4撮像領域14に結像される。
 ここで、プリズム2の入射面21及び出射面22の少なくともいずれかを、トロイダル面で構成すれば、上方の領域及び下方の領域からそれぞれ発せられた光を、第3撮像領域13及び第4撮像領域14のいずれの点にそれぞれ集光するかを調整して、撮像素子1に形成される結像のずれを補正できる。
 このように、右側の被写体領域の光及び左側の被写体領域の光は、プリズム2及び結像光学系3を透過して、それぞれ撮像素子1の第1撮像領域11及び第2撮像領域12に上下反転した像として結像される。つまり、プリズム2により被写体領域から発せられた光を導光すれば、複数の被写体領域からそれぞれ発せられた光をプリズム2によって分割して撮像素子1に結像できる。
 さらに、複数の被写体領域からそれぞれ発せられた光をプリズム2によって分割して、撮像素子1に結像させた場合、異なる被写体領域から発せられた光は、それぞれ異なる撮像領域に結像される。これにより、撮像装置100により得られる画像は、被写体領域毎に分割した画像とすることができるため、例えば、被写体領域毎に分割した各画像を、それぞれ縮小又は拡大する等、各画像に対して行う処理を選択可能となる。
 ここで、プリズム2の出射面22が有する正のパワーは、第1入射面211が有する負のパワー及び第2入射面212が有する負のパワーの少なくともいずれかよりも大きいと好ましい。さらに、出射面22が有する正のパワーは、第1入射面211が有する負のパワー及び第2入射面212が有する負のパワーの合計と等しいと好ましい。正のパワーが負のパワーよりも大きいとは、正のパワーの絶対値が負のパワーの絶対値よりも大きいことをいう。また、正のパワーが負のパワーの合計と等しいとは、正のパワーの絶対値と負のパワーの合計の絶対値とが等しいことをいう。このようにすると、結像光学系3の設計による結像性能を担保しながら、プリズム2により複数の被写体領域からそれぞれ発せられた光を分割することができる。
 撮像装置100全体の結像性能は、結像光学系3の設計によるところが大きく、プリズム2による撮像装置100全体の結像性能への影響を小さくする必要がある。上述のようにプリズム2が有するパワーを調整すれば、プリズム2から結像光学系3へ導光される光はプリズムの全ての面が平面である場合と同様な経路を辿るため、結像光学系3の設計による結像性能の向上を妨げない。つまり、上述のように、プリズム2が有するパワーを調整すれば、結像光学系3の設計による結像性能を担保しながら、プリズム2により複数の被写体領域からそれぞれ発せられた光を分割することができる。
 次に、プリズム2の光路について説明する。図4は、実施の形態1に係るプリズムの光路を比較するための説明図である。図4において、本実施の形態に係るプリズム2を実線で示している。また、比較例として、出射面22を平面形状としたプリズム2Aを点線で示している。
 説明を容易にするため、結像光学系3の画角をプリズム2によって分割すると仮定して、撮像素子1側から辿ったプリズム2の光路について説明する。図4の光110a、光111a、光112a及び光113aはそれぞれ、第1撮像領域11上のある一点に結像される光束の周辺光線である。ここで、周辺光線とは、ある一点に結像される光束のうち、最も外側を通って結像される光線をいう。光110a及び光111aは、プリズム2の出射面22が正のパワーを有する場合の光線である。一方、光112a及び光113aは、プリズム2Aの出射面22Aが平面形状を有する場合の光線である。
 まず、比較例のようにプリズム2Aの出射面22Aが平面形状である場合の、撮像素子1側から辿った光路について説明する。結像光学系3が、プリズム2Aに対して無限遠にあると仮定すると、結像光学系3からプリズム2Aに向けて出射される光112a及び光113aは平行光となる。ここで、プリズム2Aの出射面22Aは平面形状であるため、プリズム2Aの出射面22Aを透過しても光112a及び光113aの平行度は保たれ、それぞれ第2入射面212及び第1入射面211に向かって進行する。
 そして、光112aは、第2入射面212で内部反射して第1入射面211に向かって進行し、第1入射面211から右側の被写体領域へ出射される。また、光113aは、第1入射面211で内部反射して第2入射面212に向かって進行し、第2入射面212から左側の被写体領域へ出射される。複数の被写体領域を撮像する場合、右側の被写体領域から発せられた光112aは第1撮像領域11へ、左側の被写体領域から発せられた光113aは、第2撮像領域12に結像されることが好ましい。しかしながら、比較例においては、光113aは、第1撮像領域11に結像されてしまう。
 上述のように、プリズム2Aの出射面22Aが平面形状である場合、第1撮像領域11のある一点から出射された光は、第1入射面211及び第2入射面212から出射する。すなわち、プリズム2の出射面22が平面形状であると、右側の被写体領域から発せられた光112a及び左側の被写体領域から発せられた光113aが、それぞれ第1入射面211及び第2入射面212から入射して、撮像素子1の同一点上に結像される。
 このように、撮像領域のある一点に左右の被写体領域からの光を結像した場合、比較例のプリズム2Aを備えた撮像装置によって得られる画像は、左右の被写体領域からの光に含まれる光線情報が混合して不鮮明となる。なお、撮像素子1の中央付近に集光される光ほど、入射面21において前方側から入射するため、撮像素子1の中央付近に結像される光は周辺光線を含みやすい。そのため、比較例のプリズム2Aを備えた撮像装置によって得られる画像は、画像中央になるほど不鮮明になる。さらに、結像光学系3が、明るい光学系、つまり、より多くの光を取り込む構成であると、撮像素子1に結像される光が周辺光線を含みやすくなる。そのため、比較例のプリズム2Aを備えた撮像装置では、鮮明な画像を得るためにより多くの光を取り込むことができない。
 次に、本実施の形態に係るプリズム2のように出射面22が正のパワーを有する場合の、撮像素子1側から辿った光路について説明する。結像光学系3が、プリズム2に対して無限遠にあると仮定すると、結像光学系3からプリズム2に向けて出射される光110a及び光111aは平行光となる。この平行光となった光110a及び光111aは、プリズム2の出射面22をそれぞれ透過すると、出射面22の正のパワーによる集光作用が働き、それぞれ第2入射面212に導光される。つまり、第1撮像領域11上のある一点に結像される光束の周辺光線の全てを第2入射面212に導光できる。
 さらに、第2入射面212に導光された光110a及び光111aは、第2入射面212の負のパワーにより、光110a及び光111aは再度平行光へと変換される。第2入射面212に導光された光は、第2入射面212で内部反射されて第1入射面211から出射される。つまり、第1撮像領域11上の像は、左側の被写体領域の光線情報が混合されず、右側の被写体領域の光線情報により構成されることを説明できる。
 ここで、本実施の形態に係るプリズム2のように出射面22が正のパワーを有する場合に、第1撮像領域11から発せられた光が第1入射面211から出射されることについて説明したが、第2撮像領域12から発せられた光についても同様の説明により、第2入射面212から出射される、つまり、第2撮像領域12上の像は、右側の被写体領域の光線情報が混合されず、左側の被写体領域の光線情報により構成されることを説明できる。
 上述のように、プリズム2の入射面21が負のパワーを有し、出射面22が正のパワーを有すると、第1撮像領域11のある一点から出射された光は第1入射面211から出射し、第2撮像領域12のある一点から出射された光は第2入射面212から出射する。
 すなわち、プリズム2の入射面21が負のパワーを有し、出射面22が正のパワーを有すると、第1撮像領域11上の像は、右側の被写体領域の光線情報により構成され、第2撮像領域12上の像は、左側の被写体領域の光線情報により構成される。したがって、本実施の形態に係る撮像装置100により、異なる被写体領域から発せられた光に含まれる光線情報を混合することなく、鮮明かつ高精細な画像を得ることができる。ここで、上述の説明では、第1被写体領域は右側の被写体領域と対応し、第2被写体領域は左側の被写体領域と対応する。なお、第1被写体領域及び第2被写体領域は重ならない。
 さらに、プリズム2に入射する光が入射面21において前方側から入射して周辺光線を含んだとしても、第1撮像領域11上の像は、右側の被写体領域の光線情報により構成され、第2撮像領域12上の像は、左側の被写体領域の光線情報により構成される。これにより、撮像素子1の中央付近においても撮像装置100によって得られる画像は鮮明かつ高精細となる。また、結像光学系3を明るい光学系にしたとしても、第1入射面211及び第2入射面212から入射する周辺光線は、第1撮像領域11及び第2撮像領域12にそれぞれ結像される。これにより、結像光学系3を明るい光学系にしても異なる被写体領域の光線情報を混合せず、鮮明かつ高精細な画像を得ることができる。
 なお、左右の被写体領域からそれぞれ発せられた光をプリズム2によって分割する例について説明したが、上下、斜め等の複数の被写体領域からそれぞれ発せられた光をプリズム2によって分割してもよい。例えば、上下の被写体領域からそれぞれ発せられた光をプリズム2によって分割する場合、プリズム2の第1入射面211及び第2入射面212が、上下の被写体領域にそれぞれ面するように、プリズム2の位置、角度を調整すればよい。この例においては、第1被写体領域は上方の被写体領域と対応し、第2被写体領域は下方の被写体領域と対応する。
 このように、撮像装置100に、被写体領域から発せられた光を導光する、第1入射面211、第2入射面212、及び出射面22を有するプリズム2と、プリズム2から導光された光が入射される結像光学系3と、結像光学系3から導光された光を受光して電気信号に変換する撮像素子1と、を備え、第1入射面211は、負のパワーを有する凹面であり、第1入射面211に面する第1被写体領域から発せられた光が入射され、第2入射面212は、負のパワーを有する凹面であり、第2入射面212に面する第2被写体領域から発せられた光が入射され、出射面22は、正のパワーを有する凸面であり、第1入射面211及び第2入射面212から入射された光が結像光学系3に向けて出射されるものであると、鮮明かつ高精細に複数の被写体領域を撮像することができる。
<情報処理装置>
 次に、本実施の形態に係る撮像装置100を用いた情報処理装置10について説明する。図5は、実施の形態1に係る情報処理装置10の構成を示すブロック図である。情報処理装置10は、移動体に設けられた撮像装置100と、撮像装置100が撮像した画像に基づいて処理を行う制御装置200とを備える。以下では、撮像装置100が自動車等の車両の内部に設けられた車載カメラとして用いられ、情報処理装置10により、撮像装置100が撮像した、車両に搭乗している乗員の顔に対して検出等の処理を行う場合を例に挙げて説明する。なお、情報処理装置10を適用する対象の移動体は、自動車等の車両に限定せず、船舶等にも適用可能である。
 撮像装置100は、例えば30~60fps(frames per second)程度の間隔で車両の内部を撮像して、撮像素子1によって変換した電気信号を制御装置200へ出力する。図6は、実施の形態1に係る被写体領域を示す説明図である。図6では、情報処理装置10を搭載した車両の内部を上方から見ている。撮像装置100は、運転席51及び助手席52にそれぞれ着座する運転者53及び同乗者54を撮像可能なように、一台又は複数台、車両の内部のインストルメントパネル、ステアリングコラム、ルームミラー等に配置される。以下、運転席51及び助手席52にそれぞれ着座する運転者53及び同乗者54をまとめて乗員ともいう。
 撮像装置100の第1入射面211は、運転席51に面して配置され、第2入射面212は、助手席52に面して配置される。ここで、撮像装置100の前方における右側の被写体領域、すなわち運転席51に着座する乗員を含む被写体領域と対応する領域を第1被写体領域という。また、撮像装置100の前方における左側の被写体領域、すなわち助手席52に着座する乗員を含む被写体領域と対応する領域を第2被写体領域という。なお、第1被写体領域と第2被写体領域とは重ならない。図6の例では、撮像装置100は、運転席51と助手席52との間に設けられ、車両のインストルメントパネルに配置されている。また、図6の例において、領域41は第1被写体領域を示しており、領域42は第2被写体領域を示している。
 第1被写体領域の光及び第2被写体領域の光はそれぞれ、撮像装置100のプリズム2及び結像光学系3に導光されて、撮像素子1の第1撮像領域11及び第2撮像領域12に上下反転した像として結像される。そして、撮像素子1は、受光した光を電気信号に変換し、この電気信号を制御装置200へ出力する。
 ここで、撮像装置100のプリズム2の入射面21が負のパワーを有し、出射面22が正のパワーを有すると、第1撮像領域11上の像は、右側の被写体領域の光線情報により構成され、第2撮像領域12上の像は、左側の被写体領域の光線情報により構成される。つまり、運転席51に着座する乗員を含む被写体領域の光線情報と、助手席52に着座する乗員を含む被写体領域の光線情報とは混合されない。
<制御装置>
 制御装置200は、撮像装置100の撮像素子1から電気信号を取得し、電気信号から画像を生成する画像生成部201と、画像生成部201が生成した画像から乗員を検出する検出部202と、検出部202が検出した乗員の状態を推定する推定部203とを備える。
 画像生成部201は、撮像素子1から電気信号を取得し、画像を生成する。撮像素子1から取得した電気信号には、撮像素子1が有する各画素にどの程度の強さの光が結像されたか、つまり、各画素の濃度値を示す情報が含まれている。画像生成部201は、電気信号から各画素の濃度値を用いて、撮像素子1に結像された光を示す画像を生成する。画像生成部201によって生成される画像は、上述のとおり、異なる被写体領域の光線情報が混合していない鮮明かつ高精細に撮像された画像となる。なお、画像生成部201は、撮像装置100に備えられていてもよい。
 また、画像生成部201は、撮像素子1の第1撮像領域11から取得した電気信号と、第2撮像領域12から取得した電気信号とを類別して、画像を生成する。ここで、画像生成部201は、それぞれ類別した画像に、第1被写領域及び第2被写体領域のうち、いずれの被写体領域を撮像したものかを示す識別情報を付加してもよい。このようにすると、検出部202、推定部203が画像を用いて行う処理を、運転者53、同乗者54といった乗員の種別によって変更することができる。さらに、被写体領域毎に分割した各画像を、それぞれ縮小又は拡大する等の処理を行ってもよい。例えば、運転席51を含む領域である第1被写体領域を撮像した画像を拡大すれば、運転者53を撮像した画像に対して検出部202が行う処理の精度を向上できる。
 検出部202は、画像生成部201から画像を取得し解析を行う。そして、画像内に存在する乗員を検出する。以下では、検出部202が乗員の顔を検出する例について説明する。検出部202は、画像を解析し、乗員の顔が検出された領域(以下、顔領域という。)と、顔領域における乗員の顔の特徴情報とを取得する。検出部202は、乗員の顔を検出したら、画像から、例えば乗員の顔の輪郭に接する矩形等の、乗員の顔を囲む顔領域に係る座標を取得する。
 顔領域に係る座標は、例えば、顔領域が矩形である場合、矩形の各頂点、中心等の座標である。検出部202は、顔領域の幅、高さ、及び面積等を、顔領域の座標から算出する。また、乗員の顔の特徴情報とは、例えば、顔の大きさを正規化した上での、目、鼻、口、頬等、顔の要素のコントラスト比、顔の各要素間の距離等である。そして検出部202は、取得した顔領域の座標及び顔の特徴情報を推定部203に出力する。以下、顔領域の座標及び顔の特徴情報をまとめて、顔情報という。ここで、撮像装置100によって得られた画像は、運転席51側の被写体領域の光線情報と、助手席52側の被写体領域の光線情報とを混合したものではなく、乗員の顔が鮮明に撮像されている画像であるため、検出部202は、乗員の顔情報を精度よく取得できる。なお、顔情報は、乗員の頭部、手、及び肩の動き、ジェスチャ等、乗員の顔に関する情報だけでなく、顔以外の乗員の身体に関する情報が含まれていてもよい。
 推定部203は、検出部202が取得した顔情報を用いて、乗員の状態の推定を行う。ここで、乗員の状態とは、目の開眼度、顔向き等をいう。また、推定部203は、顔情報を用いて、乗員を特定して個人認証を行ってもよい。
 推定部203により乗員の目の開眼度を推定する場合は、例えば、上瞼と下瞼との距離を算出すればよい。また、推定部203により乗員の顔向きを推定する場合は、例えば、顔領域内において、鼻がいずれの位置にあるかにより顔向きを推定すればよい。さらに、推定部203により個人認証を行う場合は、例えば、記憶部(図示せず)に顔情報と個人とを紐づけて記録し、撮像した乗員の顔情報と記憶されている乗員の顔情報とを比較して、乗員を特定すればよい。推定部203は、前述のように乗員の状態を推定し、次に説明する車両制御装置300に乗員の状態を示す情報(以下、状態情報という。)を、出力部204を介して送信する。なお、記憶部には、顔情報と個人とを紐づけて記録することに加えて、例えば、個人と体格等を紐づけて記録してもよい。
<車両制御装置>
 図5に示す車両制御装置300は、情報処理装置10が搭載された車両に備えられた各機器を制御する装置である。車両制御装置300は、推定部203から取得した状態情報を用いて、車両に備えられた各機器の制御を行う。ここで、車両に備えられた各機器の制御とは、例えば、運転席51及び助手席52の座席シートの位置及び傾きの調整、音響装置の制御、車両の運転モードの切り替え、空調の調整等である。
 車両制御装置300の、推定部203から取得した状態情報を用いた各機器の制御例を示す。例えば、車両制御装置300は、推定部203から取得した状態情報に、運転者53の開眼度が小さい、つまり運転者53が眠気を感じていることを示す情報が含まれていたら、眠気を解消するように空調の制御を行う。また、車両制御装置300は、推定部203から取得した状態情報に、運転者53の顔向きが正常でない、つまり運転者53が進行方向を注視していないことを示す情報が含まれていたら、音響装置から警告音を発生させる。さらに、車両制御装置300は、推定部203から取得した状態情報に、個人認証により同乗者54を特定したことを示す情報が含まれていたら、座席シートを同乗者54の体格に適した位置及び傾きに調整する。
 車両制御装置300は、例えば、ドアの開錠、ドアのオープン、シートベルトの装着、イグニッションのON、人感センサのON、シフトレバーがドライブの位置に移動、車両速度が0km/hを超えた、ナビゲーション装置が案内を開始した、及び自車両が自宅を出発した等のいずれかの車両情報を検知した場合、撮像装置100に、車両内部の撮像を開始させる信号を出力する。
 一方、車両制御装置300は、例えば、シートベルトの取り外し、イグニッションのOFF、人感センサのOFF、シフトレバーがパーキングの位置に移動、ナビゲーション装置が案内を終了した、及び自車両が自宅へ帰着した等のいずれかの車両情報を検知した場合、撮像装置100に車両内部の撮像を終了させる信号を出力する。このように、車両情報に基づいて撮像装置100に撮像を開始又は終了させる場合、制御装置200に、車両制御装置300から車両情報を取得させ、取得した車両情報に基づいて、撮像装置100に撮像の開始又は終了を指示させればよい。
 次に、制御装置200のハードウェア構成例を説明する。図7は、実施の形態1に係る制御装置200のハードウェア構成例を示す図である。制御装置200の、画像生成部201、検出部202、推定部203、及び出力部204は、図7(a)に示すように専用のハードウェアである処理回路200aであってもよいし、図7(b)に示すようにメモリ200cに格納されているプログラムを実行するプロセッサ200bであってもよい。
 図7(a)に示すように、画像生成部201、検出部202、推定部203、及び出力部204が専用のハードウェアである場合、処理回路200aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、又はこれらを組み合わせたものが該当する。画像生成部201、検出部202、推定部203、及び出力部204の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
 図7(b)に示すように、画像生成部201、検出部202、推定部203、及び出力部204がプロセッサ200bである場合、各部の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ200cに格納される。プロセッサ200bは、メモリ200cに記憶されたプログラムを読み出して実行することにより、画像生成部201、検出部202、推定部203、及び出力部204の各機能を実現する。すなわち、画像生成部201、検出部202、推定部203、及び出力部204は、プロセッサ200bにより実行されるときに、上述の処理が結果的に実行されることになるプログラムを格納するためのメモリ200cを備える。また、これらのプログラムは、画像生成部201、検出部202、推定部203、及び出力部204の処理の手順又は方法をコンピュータに実行させるものであるともいえる。
 ここで、プロセッサ200bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、又はDSP(Digital Signal Processor)等のことである。メモリ200cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性又は揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
 このように、情報処理装置10に、車両の内部に設けられ、車両の運転席51に着座する乗員を含む第1被写体領域と、車両の助手席52に着座する乗員を含む第2被写体領域とを撮像する撮像装置100と、第1被写体領域から発せられた光の電気信号と第2被写体領域から発せられた光との電気信号を、撮像装置100の撮像素子1から取得し、第1被写体領域及び第2被写体領域が撮像された画像を生成する画像生成部201と、画像生成部201が生成した画像から、運転席51に着座する乗員及び助手席52に着座する乗員の少なくともいずれかの顔情報を検出する検出部202と、検出部202が検出した顔情報を用いて、乗員の状態を推定する推定部203とを備えたことで、運転席51側の被写体領域の光線情報と、助手席52側の被写体領域の光線情報とが混合されていない鮮明かつ高精細な画像を撮像して、乗員を撮像した画像に対して行う処理の精度を向上できる。
 なお、本実施の形態において、結像光学系3は、第1光学レンズ31と第2光学レンズ32との2枚の光学レンズを有する例について説明したが、結像光学系3の光学レンズの数は限定しない。例えば、光学レンズの枚数を増やせば、結像性能を向上させることができる。
 また、本実施の形態において、プリズム2に前面23が設けられている例について説明したが、プリズム2に前面23を設けなくてもよい。この場合、プリズム2は、撮像装置100の上方から見た視点においては、入射面21と出射面22により三角形状となる。ここで、三角形状とは、三角形を構成する各辺の少なくともいずれかが湾曲しているものを含む。
 また、本実施の形態において、情報処理装置10により、運転席51に着座する乗員と、助手席52に着座する乗員を検出及び推定する例について説明したが、情報処理装置10により運転席51に着座する乗員と、助手席52に着座する乗員とのいずれかの乗員を検出し、状態の推定を行ってもよい。
 また、本実施の形態において、画像生成部201、検出部202、推定部203、及び出力部204の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、顔検出装置における処理回路200aは、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。また、画像生成部201、検出部202、推定部203、及び出力部204の少なくとも一部の機能を、外部サーバに実行させてもよい。
実施の形態2.
 図8は、実施の形態2に係る撮像装置101の構成を概略的に示す上面図である。本実施の形態に係る撮像装置101は、実施の形態1と同様に、受光した光を電気信号に変換する撮像素子1と、撮像素子1に向けて光を出射して撮像素子1上に結像させる結像光学系3と、第1被写体領域及び第2被写体領域からそれぞれ発せられた光を分割して結像光学系3に導光するプリズム2とを備え、プリズム2の入射面21は負のパワーを有し、出射面22は正のパワーを有する。実施の形態1とは、プリズム2の前面23に、遮光部24が設けられている点で異なる。実施の形態1と同じ構成要素には同じ符号を付し、その説明を省略する。
 プリズム2は、図8に示すように、撮像装置101の上方から見た視点においては、入射面21、出射面22、及び第1入射面211と第2入射面212の間のプリズム2における前方、つまり出射面22と反対側に設けられた前面23により多角形状となる。ここで、多角形状とは、多角形を構成する各辺の少なくともいずれかが湾曲しているものを含む。
 プリズム2の第1入射面211には、第1被写体領域から発せられた光が入射し、第2入射面212には、第2被写体領域から発せられた光が入射する。以下、第1被写体領域が右側の被写体領域であり、第2被写体領域が左側の被写体領域である例について説明する。
 右側の被写体領域と左側の被写体領域との間にある領域が撮像対象外である場合、プリズム2の前面23へ入射する光は迷光となる。迷光が撮像素子1に結像されると、撮像装置101により得られる画像は不鮮明となる。そのため、プリズム2の前面23へ入射する光を遮光する必要がある。
 本実施の形態のプリズム2の前面23には、遮光性を有する材料で構成された遮光部24が設けられており、この遮光部24により、プリズム2の前面23へ入射する光、つまり右側の被写体領域と左側の被写体領域との間にある領域から発せられた光が遮られる。
 図8において、光11a及び光11bはそれぞれ、右側の被写体領域から発せられた光である。光11a及び光11bは、プリズム2の第1入射面211で屈折してプリズム2内部に透過する。また、プリズム2内部に透過した光11a及び光11bは、第2入射面212で内部反射することで出射面22側に向けて導光される。そして、第2入射面212で反射した光11a及び光11bは、出射面22を透過して結像光学系3に向けて出射される。このとき、光11a及び光11bは、出射面22で屈折し、結像光学系3によって撮像素子1の第1撮像領域11に結像される。
 一方、図8における光12a及び光12bは、左側の被写体領域から発せられた光である。光12a及び光12bは、プリズム2の第2入射面212で屈折してプリズム2内部に透過する。また、プリズム2内部に透過した光12a及び光12bは、第1入射面211で内部反射することで出射面22側に向けて導光される。そして、第1入射面211で反射した光12a及び光12bは、出射面22を透過して結像光学系3に向けて出射される。このとき、光12a及び光12bは、出射面22で屈折し、結像光学系3によって撮像素子1の第2撮像領域12に結像される。
 また、遮光部24によるプリズム2の前面23へ入射する光の遮光について、撮像素子1側から辿ったプリズム2の光路を用いて説明する。図8における光15は、撮像素子1の中央付近に結像される光束である。結像光学系3からプリズム2に向けて出射された光15は、プリズム2の出射面22を透過して、第1入射面211又は第2入射面212へ導光される。
 さらに、第1入射面211へ導光された光15は、第1入射面211で内部反射し、プリズム2の前面23へ導光される。一方、第2入射面212へ導光された光15も、第2入射面212で内部反射し、プリズム2の前面23へ導光される。ここで、プリズム2の前面23へ導光された光15は、遮光部24により遮られ、プリズム2の前面23から出射することはない。つまり、プリズム2の前面23に遮光部24を設けると、プリズム2の前面23から入射して撮像素子1の中央付近へ結像される光を遮ることができる。
 このように、撮像装置101のプリズム2の前面23に遮光部24を設けると、撮像対象の複数の被写体領域の間にある領域から発せられた光が入射して迷光となることを抑制でき、鮮明かつ高精細に、撮像対象である複数の被写体領域を撮像することができる。さらに、本実施の形態の撮像装置101を、情報処理装置10の車載カメラとして用いれば、鮮明かつ高精細に、撮像対象である複数の被写体領域を撮像することができるため、乗員の顔画像に対して行う処理の精度を向上できる。
 なお、本明細書中に開示する各実施の形態においては平行、垂直等の用語を用いて部品間の位置関係及び部品の形状等を説明したが、これらの用語は、製造上の公差や組み立て上のばらつきなどを考慮した範囲を含む。つまり、撮像装置100、101における、部品間の位置関係及び部品の形状等は、製造上の公差又は組み立て上のばらつきを含んでもよい。
 また、本明細書中に開示する各実施の形態は、その範囲内において、各実施の形態を自由に組み合わせることが可能であり、各実施の形態を適宜、変形、省略することが可能である。
1 撮像素子、2、2A プリズム、3 結像光学系、10 情報処理装置、11 第1撮像領域、11a、11b、12a、12b、13a、13b、14a、14b、15、110a、111a、112a、113a 光、12 第2撮像領域、13 第3撮像領域、14 第4撮像領域、21 入射面、22、22A 出射面、23 前面、31 第1光学レンズ、32 第2光学レンズ、33 絞り部、41、42 領域、51 運転席、52 助手席、53 運転者、54 同乗者、100、101 撮像装置、200 制御装置、200a 処理回路、200b プロセッサ、200c メモリ、201 画像生成部、202 検出部、203 推定部、204 出力部、211 第1入射面、212 第2入射面、300 車両制御装置、C1 光軸。

Claims (10)

  1.  被写体領域から発せられた光を導光する、第1入射面、第2入射面、及び出射面を有するプリズムと、
     前記プリズムの後方に設けられ、前記プリズムから導光された光が入射される結像光学系と、
     前記結像光学系の後方に設けられ、前記結像光学系から導光された光を受光して電気信号に変換する撮像素子と、
    を備え、
     前記第1入射面は、負のパワーを有する凹面であり、前記被写体領域のうち前記第1入射面に面する第1被写体領域から発せられた光が入射され、
     前記第2入射面は、負のパワーを有する凹面であり、前記被写体領域のうち前記第1被写体領域と異なり、前記第2入射面に面する第2被写体領域から発せられた光が入射され、
     前記出射面は、正のパワーを有する凸面であり、前記第1入射面及び前記第2入射面に入射された光が前記結像光学系に向けて出射されることを特徴とする撮像装置。
  2.  前記第1入射面は、前記第2被写体領域から発せられて前記第2入射面に入射された光を内部反射して前記出射面側へ導光し、
     前記第2入射面は、前記第1被写体領域から発せられて前記第1入射面に入射された光を内部反射して前記出射面側へ導光することを特徴とする請求項1に記載の撮像装置。
  3.  前記出射面は、トロイダル面であることを特徴とする請求項1又は請求項2に記載の撮像装置。
  4.  前記第1入射面及び前記第2入射面は、それぞれトロイダル面であることを特徴とする請求項1から請求項3のいずれか一項に記載の撮像装置。
  5.  前記プリズムは、前記出射面が有する正のパワーが、前記第1入射面が有する負のパワー及び前記第2入射面が有する負のパワーの少なくともいずれかよりも大きいことを特徴とする請求項1から請求項4のいずれか一項に記載の撮像装置。
  6.  前記プリズムは、前記出射面が有する正のパワーと、前記第1入射面が有する負のパワー及び前記第2入射面が有する負のパワーの合計とが等しいことを特徴とする請求項1から請求項5のいずれか一項に記載の撮像装置。
  7.  前記プリズムは、前記出射面と反対側において前記第1入射面と前記第2入射面との間に設けられた前面を有し、前記前面に遮光性を有する遮光部が設けられていることを特徴とする請求項1から請求項6のいずれか一項に記載の撮像装置。
  8.  前記結像光学系は、前記プリズムから導光された光を前記撮像素子に集光させる光学レンズと、前記光学レンズの光軸を囲む、遮光性を有する円環状の絞り部とを有することを特徴とする請求項1から請求項7のいずれか一項に記載の撮像装置。
  9.  車両の内部に設けられ、前記車両の運転席に着座する乗員を含む第1被写体領域と、前記車両の助手席に着座する乗員を含む第2被写体領域とを撮像する、請求項1から請求項8のいずれか一項に記載の撮像装置と、
     前記第1被写体領域から発せられた光を変換した電気信号と前記第2被写体領域から発せられた光を変換した電気信号とを、前記撮像装置の撮像素子から取得し、前記第1被写体領域及び前記第2被写体領域が撮像された画像を生成する画像生成部と、
     前記画像生成部が生成した画像から、前記運転席に着座する乗員及び前記助手席に着座する乗員の少なくともいずれかの顔情報を検出する検出部と、
     前記検出部が検出した前記顔情報を用いて、前記運転席に着座する乗員及び前記助手席に着座する乗員の少なくともいずれかの状態を推定する推定部と
    を備える情報処理装置。
  10.  前記撮像装置は、前記運転席と前記助手席との間に設けられ、前記撮像装置のプリズムの第1入射面が前記運転席に面して配置され、前記プリズムの第2入射面が前記助手席に面して配置されていることを特徴とする請求項9に記載の情報処理装置。
PCT/JP2020/028315 2020-07-21 2020-07-21 撮像装置及び情報処理装置 WO2022018830A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/028315 WO2022018830A1 (ja) 2020-07-21 2020-07-21 撮像装置及び情報処理装置
JP2022538533A JP7281060B2 (ja) 2020-07-21 2020-07-21 撮像装置及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/028315 WO2022018830A1 (ja) 2020-07-21 2020-07-21 撮像装置及び情報処理装置

Publications (1)

Publication Number Publication Date
WO2022018830A1 true WO2022018830A1 (ja) 2022-01-27

Family

ID=79729130

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/028315 WO2022018830A1 (ja) 2020-07-21 2020-07-21 撮像装置及び情報処理装置

Country Status (2)

Country Link
JP (1) JP7281060B2 (ja)
WO (1) WO2022018830A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10229512A (ja) * 1997-02-14 1998-08-25 Mitsubishi Electric Corp カメラおよびそれを用いた車両用周辺視認装置
JP2002036952A (ja) * 2000-07-31 2002-02-06 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP2003207836A (ja) * 2002-01-11 2003-07-25 Auto Network Gijutsu Kenkyusho:Kk カメラ装置及び車両周辺監視装置
JP2005075261A (ja) * 2003-09-03 2005-03-24 Auto Network Gijutsu Kenkyusho:Kk 乗員検知システム
KR20070099196A (ko) * 2006-04-03 2007-10-09 엘지이노텍 주식회사 측방 감시 장치 및 방법, 그 제조방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10229512A (ja) * 1997-02-14 1998-08-25 Mitsubishi Electric Corp カメラおよびそれを用いた車両用周辺視認装置
JP2002036952A (ja) * 2000-07-31 2002-02-06 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP2003207836A (ja) * 2002-01-11 2003-07-25 Auto Network Gijutsu Kenkyusho:Kk カメラ装置及び車両周辺監視装置
JP2005075261A (ja) * 2003-09-03 2005-03-24 Auto Network Gijutsu Kenkyusho:Kk 乗員検知システム
KR20070099196A (ko) * 2006-04-03 2007-10-09 엘지이노텍 주식회사 측방 감시 장치 및 방법, 그 제조방법

Also Published As

Publication number Publication date
JPWO2022018830A1 (ja) 2022-01-27
JP7281060B2 (ja) 2023-05-25

Similar Documents

Publication Publication Date Title
US10525886B2 (en) Display system, electronic mirror system and movable-body apparatus equipped with the same
US8033697B2 (en) Automotive headlight system and adaptive automotive headlight system with instant control and compensation
JP4760336B2 (ja) ヘッドアップディスプレイ装置
JP4278879B2 (ja) 車両周辺視認装置
CN104071084B (zh) 用于车辆的摄像机和具有该摄像机的车辆
JP7162273B2 (ja) ヘッドアップディスプレイおよびヘッドアップディスプレイを搭載した移動体
JPH1183459A (ja) 凹凸面情報検出装置
WO2019116730A1 (ja) ヘッドアップディスプレイおよびヘッドアップディスプレイを搭載した移動体
JP7213466B2 (ja) カメラシステム、搭乗者監視システム、移動装置、撮像方法及びプログラム
CN104618665A (zh) 多个成像器的车辆光学传感器系统
WO2022018830A1 (ja) 撮像装置及び情報処理装置
TWM580525U (zh) 防耀光顯示系統
CN109855594A (zh) 摄像装置、距离测量设备、车载系统和移动设备
US9327655B2 (en) Image capturing apparatus for close and distant objects
US20200314297A1 (en) Imaging optical system, image capture device, driver/passenger monitoring system, and moving vehicle
JP6661955B2 (ja) 表示装置
JP5330741B2 (ja) 車載用観察装置
WO2019116731A1 (ja) ヘッドアップディスプレイおよびヘッドアップディスプレイを搭載した移動体
US11290703B2 (en) Stereo camera, onboard lighting unit, and stereo camera system
JP6774854B2 (ja) 表示装置、及び、内装部材ユニット
JPWO2019124323A1 (ja) 虚像表示装置、およびヘッドアップディスプレイ装置
JP7409544B1 (ja) 運転支援装置
JP3446991B2 (ja) 監視装置
JP7244129B1 (ja) ナイトビジョンカメラ
JP6835195B2 (ja) 表示装置、車両

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20946509

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022538533

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20946509

Country of ref document: EP

Kind code of ref document: A1