WO2024014415A1 - 撮像方法、学習方法、学習データ生成装置、及びデータ構造 - Google Patents

撮像方法、学習方法、学習データ生成装置、及びデータ構造 Download PDF

Info

Publication number
WO2024014415A1
WO2024014415A1 PCT/JP2023/025336 JP2023025336W WO2024014415A1 WO 2024014415 A1 WO2024014415 A1 WO 2024014415A1 JP 2023025336 W JP2023025336 W JP 2023025336W WO 2024014415 A1 WO2024014415 A1 WO 2024014415A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
imaging
superimposed
object point
Prior art date
Application number
PCT/JP2023/025336
Other languages
English (en)
French (fr)
Inventor
俊 菅原
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2024014415A1 publication Critical patent/WO2024014415A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present disclosure relates to an imaging method, a learning method, a learning data generation device, and a data structure.
  • An imaging optical system that forms an image of an observation target has various physical properties such as focal length and angle of view.
  • focal length becomes longer, an enlarged image of the observed object is formed, so detailed optical information of the distant observed object, in other words, enlarged optical information can be obtained.
  • the wider the angle of view the more optical information can be obtained from the observation target located over a wider area.
  • there is a trade-off relationship between the focal length and the angle of view as the focal length becomes longer, the angle of view becomes narrower, and as the focal length becomes shorter, the angle of view becomes wider.
  • the focal length is adjusted so that desired optical information can be obtained depending on the situation.
  • the focal length is adjusted by displacing a zoom lens included in the imaging optical system.
  • the focal length is adjusted by switching between a plurality of single focus lenses (see Patent Documents 1 and 2).
  • the imaging method according to the first viewpoint is an image sensor having a light receiving area, an optical system that images incident first light on the light receiving area, and an angle between the optical axis of the optical system and the chief ray incident on the optical system that is the first Using an imaging device having an optical element that guides a second light different from the light to the light receiving area, A third image is captured in which a first image formed by the object point emitting the first light and a second image formed by the object point emitting the second light are simultaneously displayed on a display. .
  • the learning method from the second perspective is an image sensor having a light receiving area, an optical system that images incident first light on the light receiving area, and an angle between the optical axis of the optical system and the chief ray incident on the optical system that is the first Using an imaging device having an optical element that guides a second light different from the light to the light receiving area, capturing a third image in which a first image formed by the object point emitting the first light and a second image formed by the object point emitting the second light are simultaneously displayed on a display; , The third image in the imaging method in which a first superimposed image generated by the imaging device by imaging the third image is stored in association with images corresponding to the first image and the second image, respectively.
  • the second superimposed image captured by the imaging device is created by using the first superimposed image that the imaging device generates by capturing the image, and the images that respectively correspond to the first image and the second image.
  • An image processing model that separates into a first image component corresponding to an object point that emits the first light and a second image component corresponding to the object point that emits the second light is trained.
  • the learning data generation device is an image sensor having a light receiving area, an optical system that images incident first light on the light receiving area, and an angle between the optical axis of the optical system and the chief ray incident on the optical system that is the first an imaging device having an optical element that guides a second light different from the light to the light receiving area; a display located within the field of view of the imaging device; the imaging of a third image in which a first image formed by the object point emitting the first light and a second image formed by the object point emitting the second light are simultaneously displayed on the display; An information processing device that causes the device to take an image.
  • the data structure according to the fourth viewpoint is A second superimposed image in which a first image component corresponding to the object point that emits the first light and a second image component corresponding to the object point that emits the second light are superimposed,
  • a data structure used for learning an image processing model that separates into an image component and a second image component the data structure comprising: a first image formed by the object point that emits the first light; a second image formed by the object point that emits the second light; a first superimposed image in which the first image and the second image are superimposed; Correspondence information indicating a correspondence relationship between the first image, the second image, and the first superimposed image,
  • the image processing model is trained using a combination of the first image, the second image, the first superimposed image, and the correspondence information as training data.
  • FIG. 1 is an external view showing a schematic configuration of a learning data generation device including an imaging device used in an imaging method according to the present embodiment.
  • 2 is a configuration diagram showing a schematic configuration of the imaging device of FIG. 1.
  • FIG. 3 is a diagram for explaining the physical properties of the image sensor and optical system of FIG. 2.
  • FIG. 3 is a conceptual diagram illustrating an image reaching a light receiving area in FIG. 2.
  • FIG. 3 is a conceptual diagram illustrating a situation in which a superimposed image reaching the light receiving area of FIG. 2 is formed.
  • 3 is a conceptual diagram for explaining a process of generating a restored image from a superimposed image by the controller of FIG. 2.
  • FIG. 2 is a functional block diagram showing a schematic configuration of the information processing device in FIG. 1.
  • FIG. 1 is an external view showing a schematic configuration of a learning data generation device including an imaging device used in an imaging method according to the present embodiment.
  • FIG. 2 is a configuration diagram showing a schematic configuration of the imaging device of FIG.
  • FIG. 8 is a flowchart for explaining a first generation process executed by the controller in FIG. 7.
  • FIG. 8 is a flowchart for explaining a second generation process executed by the controller in FIG. 7.
  • FIG. 8 is a flowchart for explaining learning processing executed by the controller in FIG. 7.
  • a learning data generation device 11 including an imaging device 10 used in an imaging method according to an embodiment of the present disclosure is configured to include an imaging device 10, a display 12, and an information processing device 13. .
  • the learning data generation device 11 may further include a providing device 14 that provides image data.
  • the learning data generation device 11 may generate data for learning an image processing model applied to the imaging device 10.
  • the image processing model separates the second superimposed image generated by imaging by the imaging device 10 into a first image component and a second image component.
  • the learning data generation device 11 generates learning data by causing the imaging device 10 to capture an image displayed on the display 12 by the information processing device 13, as will be described later.
  • the imaging device 10 may be a mass-produced product.
  • the imaging device 10 before being given the parameters of the image processing model may be used in the learning data generation device 11.
  • Learning data may be generated by a learning data generation device 11 using the imaging device 10.
  • Parameters of the image processing model may be generated by learning using learning data. The parameters may be given to other imaging devices 10.
  • the imaging device 10 includes an imaging optical system (optical system) 15, an imaging element 16, and an optical element 17.
  • the imaging device 10 may further include a memory 18 and a controller 19.
  • the imaging optical system 15 forms an image of the incident subject light flux.
  • the imaging optical system 15 forms an image of incident first light on a light receiving area of an image sensor 16, which will be described later, in the imaging device 10.
  • the first light may be light emitted by an object point located within the field of view of the imaging optical system 15.
  • the angle of view in the imaging optical system 15 alone in other words, in a configuration that does not include the optical element 17, will also be referred to as a direct angle of view.
  • the imaging optical system 15 may be constituted by an optical element that focuses light beams emitted from object points at different positions onto different image points by itself, in other words, without the optical element 17.
  • Optical elements constituting the imaging optical system 15 are, for example, lenses, mirrors, apertures, and the like.
  • the imaging optical system 15 does not have to be telecentric on the image side.
  • the angle of the principal ray of any light beam passing through the imaging optical system 15 with respect to the optical axis may be greater than 0°.
  • the image sensor 16 has a light receiving area ra.
  • the image sensor 16 captures an image formed within the light receiving area ra via the imaging optical system 15.
  • the image sensor 16 may be capable of capturing images using invisible light such as visible light, infrared rays, and ultraviolet rays.
  • the image sensor 16 is, for example, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor, or the like.
  • the image sensor 16 may be a color image sensor.
  • the plurality of pixels arranged in the light receiving area ra of the image sensor 16 may be covered with, for example, RGB color filters so as to be evenly distributed within the light receiving area ra.
  • the image sensor 16 generates an image signal corresponding to an image received by imaging.
  • the image sensor 16 may generate an image signal at a predetermined frame rate such as 30 fps.
  • the outer edge of the light receiving area ra on the side where the optical element 17 described later is provided may be located outside the outer edge of the exit pupil of the imaging optical system 15. Outside the outer edge of the exit pupil means outside with respect to the optical axis ox of the imaging optical system 15.
  • the light receiving area ra may be rectangular.
  • the optical element 17 guides the second light to the light receiving area.
  • the second light differs from the first light in the angle between the optical axis ox of the imaging optical system 15 and the chief ray that enters the imaging optical system 15.
  • the second light may be light emitted by an object point located outside the angle of view of the imaging optical system 15, in other words, directly outside the angle of view.
  • the principal rays include a ray passing through the center of the aperture stop of the imaging optical system 15, a ray passing through the center of the entrance pupil of the imaging optical system 15, and a center of a light beam emitted from an arbitrary object point and incident on the imaging optical system 15. may be any of the rays of light.
  • the optical element 17 may image at least a portion of the light flux that enters the imaging optical system 15 from outside the direct angle of view of the imaging optical system 15 into the light receiving area ra of the imaging element 16.
  • the direct angle of view corresponds to the light receiving area ra of the image sensor 16, and is the angle of view of the imaging optical system 15 alone as described above, and is the angle of view of the object point imaged within the light receiving area ra without passing through the optical element 17. This is the angle of view corresponding to the range.
  • the optical element 17 may be a mirror that reflects at least a portion of the light beam incident on the imaging optical system 15 and guides it to the light receiving area ra.
  • the mirror may image the second light incident on the imaging optical system 15 on the light receiving area ra.
  • the reflective surface of the mirror may be parallel to the optical axis ox of the imaging optical system 15.
  • the reflective surface of the mirror may be parallel to either side of the rectangular light receiving area ra.
  • the mirror may be located outside the exit pupil of the imaging optical system 15 when viewed from the optical axis ox direction of the imaging optical system 15. More specifically, the mirror may be arranged relative to the imaging optical system 15 such that the reflective surface is located outside the exit pupil.
  • the mirror may include multiple plane mirrors. Two plane mirrors belonging to at least one set among the plurality of plane mirrors may be positioned such that their reflective surfaces face each other and are parallel to each other. The plane mirror and the outer edge of the light receiving area ra of the image sensor 16 may be in close contact with each other in the normal direction of the plane mirror.
  • the distance H between the optical axis ox and two plane mirrors whose reflective surfaces are parallel to each other may be equal.
  • the two mutually parallel plane mirrors, the imaging optical system 15, and the imaging device 16 may be designed and arranged to satisfy CRA ⁇ tan ⁇ 1 (H/B).
  • CRA is the angle with respect to the optical axis ox of the principal ray of the light beam emitted from the object point pp by the imaging optical system 15 at an angle twice the direct angle of view.
  • B is the back focus of the imaging optical system 15.
  • the light receiving area ra of the image sensor 16 has a first object point directly within the angle of view, in other words, a first object point corresponding to the object point that emits the first light.
  • Image component ic1 arrives without passing through optical element 17. More specifically, the first image component ic1 corresponding to an object point within the direct angle of view corresponds to a subject image located directly within the angle of view.
  • the second image component ic2 corresponding to the object point directly outside the angle of view in other words, the object point that emits the second light, reaches the light receiving area ra inverted via the optical element 17.
  • the second image component ic2 is an image component that is imaged on the light receiving area ra via the optical element 17. More specifically, the second image component ic2 corresponding to an object point directly outside the angle of view corresponds to a subject image located directly outside the angle of view.
  • the first image component ic1 and the second image component ic2 which is inverted in the configuration in which the optical element 17 is a mirror, overlap in the light receiving area ra. Therefore, the image sensor 16 images a second superimposed image olim2 of the first image component ic1 and the second image component ic2 which is inverted in a configuration in which the optical element 17 is a mirror.
  • the memory 18 includes any storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the memory 18 may store various programs that cause the controller 19 to function and various information that the controller 19 uses.
  • the memory 18 may store, for example, parameters of the general-purpose image processing model described above. However, in the imaging device 10 applied to the learning data generation device 11, the memory 18 does not need to store the parameter.
  • the controller 19 is configured to include at least one processor, at least one dedicated circuit, or a combination thereof.
  • the processor is a general-purpose processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), or a dedicated processor specialized for specific processing.
  • the dedicated circuit may be, for example, an FPGA (Field-Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), or the like.
  • the controller 19 may perform image processing on the image signal acquired from the image sensor 16.
  • the controller 19 performs image processing to separate the second superimposed image olim2 corresponding to the image signal into a first image component ic1 and a second image component ic2. It's okay.
  • the controller 19 may separate the second superimposed image olim2 by applying an image processing model.
  • the image processing model is constructed by learning the first image and the second image as correct answers for a first superimposed image in which the first image and the second image are superimposed.
  • the image separation model is a Pix-to-Decoder model that competes with a generator that generates images and a discriminator that determines whether the generated image is a fake image, like the Encoder-Decoder model, and generates a pair of images that reflects the relationship between them.
  • the controller 19 may generate the restored image rcim by combining the separated first image component ic1 and second image component ic2.
  • the controller 19 may use the restored image rcim to measure the distance of the subject imaged around the imaging device 10.
  • the controller 19 performs distance measurement using the restored image rcim, for example, based on DFD (Depth From Defocus).
  • Controller 19 is a restorer image based on the exercise parallax (SLAM: Simultaneous Localizations and Mapping, Motion Stereo), DEEP LEARNING, separate models, foot distance law, etc. You may go to the measurement.
  • the foot distance measurement method is a method of calculating three-dimensional coordinates based on image coordinates on the premise that the lower end of the subject image is located on the ground.
  • the controller 19 may generate a distance image based on the distance corresponding to each address of the restored image rcim.
  • a distance image is an image in which the pixel value of each pixel corresponds to distance.
  • the controller 19 may provide the distance image to an external device.
  • the display 12 may display images.
  • the display 12 may include, for example, an LCD (liquid crystal display), a PDP (plasma display panel), and an OLED (organic electroluminescent display).
  • the display 12 is located within the field of view of the imaging device 10 in the learning data generation device 11.
  • the display 12 may be arranged so that the display surface of the display 12 includes the entire visual field range of the imaging device 10.
  • the display 12 and the imaging device 10 may be positioned in the learning data generation device 11 so as to have predetermined relative positions and relative postures.
  • the display 12 and the imaging device 10 may be arranged such that the optical axis ox of the imaging device 10 is perpendicular to the display surface of the display 12 and passes through the center of the display surface.
  • the providing device 14 may provide images of multiple frames to the display 12. Images of multiple frames may be acquired in advance. Images of a plurality of frames may be generated by imaging using an imaging device that can directly capture only the scene within the field of view without providing an optical element 17, unlike the imaging device 10 of the present application. For example, the providing device 14 may store images of a plurality of frames that constitute a moving image. The providing device 14 may provide the image to the display 12 under the control of the information processing device 13 . The providing device 14 may provide the display 12 with the processed image based on the control of the information processing device 13 . The providing device 14 may be integrated with the information processing device 13.
  • the information processing device 13 may be configured to include an input/output interface 20 and a controller 21.
  • the input/output interface 20 may communicate information and commands with external equipment of the information processing device 13.
  • the input/output interface 20 may be connected to the imaging device 10 and the providing device 14.
  • the controller 21 is configured to include at least one processor, at least one dedicated circuit, or a combination thereof.
  • the processor is a general-purpose processor such as a CPU or GPU, or a dedicated processor specialized for specific processing.
  • the dedicated circuit may be, for example, an FPGA, an ASIC, or the like.
  • the controller 21 may selectively provide the first mode and the second mode to the information processing device 13 as the operation modes.
  • the information processing device 13 may generate learning data.
  • the information processing device 13 may learn the image processing model using the learning data.
  • the controller 21 may switch the operation mode to either the first mode or the second mode based on the detection of an operation input to an input device such as a keyboard provided in the information processing device 13.
  • the controller 21 may display images on the display 12 frame by frame by controlling the providing device 14. As shown in FIG. 8, each frame image includes multiple partial images.
  • the partial image may include a first image im1 and a second image im2.
  • An image in which the first image im1 and the second image im2 are simultaneously displayed on the display 12 is called a third image im3.
  • the first image im1 is a partial image of the area formed by the object point directly within the angle of view, in other words, the object point that emits the first light.
  • the first image im1 may be a partial image displayed in the entire area within the direct angle of view of the imaging device 10 on the display 12 of the learning data generation device 11.
  • the second image im2 is a part of the area formed by the object point that emits the light beam that is imaged on the light receiving area ra via the optical element 17 of the imaging device 10, in other words, the object point that emits the second light. It is a statue.
  • the second image im2 is a partial image displayed on the display 12 of the learning data generation device 11 in an area that is continuous with the first image im1 and is included within an angular range wider than the direct angle of view. good.
  • the relative position and orientation of the imaging device 10 with respect to the display 12 may be determined in advance.
  • the controller 21 may recognize an area directly corresponding to the angle of view and an area outside the direct angle of view in the designed relative position and relative orientation.
  • the controller 21 may recognize the area corresponding to the direct angle of view and the area outside the direct angle of view by calculating them based on the characteristics of the imaging optical system 15 such as the direct angle of view and focal length of the imaging device 10.
  • the controller 21 may recognize the area corresponding to the direct angle of view calculated in advance based on the characteristics of the imaging optical system 15 and the area outside the direct angle of view by acquiring from the imaging device 10 or the like.
  • the controller 21 displays the first image im1 and the second image im2 on the display 12 at the same time.
  • the controller 21 causes the imaging device 10 to capture a third image im3 that is displayed simultaneously while simultaneously displaying the first image im1 and the second image im2.
  • the controller 21 causes an arbitrary memory to store the first superimposed image generated by the imaging device 10 by capturing the third image im3.
  • the arbitrary memory may include at least one of a memory included in the information processing device 13, an external memory connected to the information processing device 13, and the providing device 14. In this embodiment, the optional memory may be the providing device 14.
  • the controller 21 After capturing the third image im3, the controller 21 causes the display 12 to display the first image im1 and the second image im2 in the third image im3 individually and in sequence. Displaying them individually means that when displaying the first image im1, optical information having substantially different amounts of light from different object points outside the direct angle of view is not allowed to reach the light receiving area ra of the imaging device 10. It's okay. For example, when displaying the first image im1, the area directly outside the viewing angle may be displayed on the display 12 in a single color. Furthermore, displaying them individually means that when displaying the second image im2, optical information having substantially different amounts of light from different object points within the direct angle of view is not allowed to reach the light receiving area ra of the imaging device 10. It can mean something.
  • the controller 21 may individually display the first image im1 by, for example, performing image processing to mask the area outside the direct angle of view of the third image im3 displayed on the display 12 with black color or the like. Further, the controller 21 individually displays the second image im2 by, for example, performing image processing to mask the area within the direct angle of view of the third image im3 displayed on the display 12 with black color or the like. It's okay.
  • the controller 21 may cause the providing device 14 to perform image processing for masking a specific area instead of the controller 21.
  • the controller 21 causes the imaging device 10 to capture the first image im1 while the first image im1 is being displayed individually.
  • the controller 21 causes the imaging device 10 to capture the second image im2 while the second image im2 is being individually displayed.
  • the controller 21 sets an image generated by the imaging device 10 by capturing the first image im1 as an image corresponding to the first image im1, and a first image corresponding to the third image im3 including the first image im1. It may be stored in the providing device 14 in association with the superimposed image.
  • the controller 21 sets the image generated by the imaging device 10 by capturing the second image im2 as an image corresponding to the second image im2, and sets the image as the first image corresponding to the third image im3 including the second image im2. It may be stored in the providing device 14 in association with the superimposed image.
  • the controller 21 displays the first image im1 included in the third image im every time the third image im3 is captured. and second image im2 may be acquired from the providing device 14.
  • the controller 21 associates the first image im1 acquired from the providing device 14 with the first superimposed image corresponding to the third image im3 containing the first image im1, as an image corresponding to the first image im1. and may be stored in the providing device 14.
  • the controller 21 associates the second image im2 acquired from the providing device 14 with the first superimposed image corresponding to the third image im3 including the second image im2, as an image corresponding to the second image im2. and may be stored in the providing device 14.
  • the controller 21 generates a first superimposed image for each frame in an image group of a plurality of frames such as a moving image, and generates the first superimposed image, an image corresponding to the first image im1, and a second image im2. may be stored in association with an image corresponding to the image.
  • the controller 21 generates, as learning data, a first superimposed image and a combination in which the first superimposed image is associated with an image corresponding to the first image im1 and an image corresponding to the second image im2, respectively. .
  • the controller 21 performs learning of the image processing model using the learning data stored in the providing device 14. In other words, the controller 21 performs learning of the image processing model using the first superimposed image and the images generated by the imaging device 10 by individually capturing the first image im1 and the second image im2. . Alternatively, in the second mode, the controller 21 performs learning of the image processing model using the first superimposed image, the first image im1, and the second image im2.
  • the first generation process starts when the operating mode is switched to the first mode.
  • the first generation process is a process of generating learning data by individually displaying and capturing the first image im1 and the second image im2.
  • step S100 the controller 21 recognizes a video used to generate learning data from among the videos stored in the providing device 14. Recognition of a moving image is based on, for example, detection of an operation input to an input device such as a keyboard provided in the information processing device 13. After recognition, the process proceeds to step S101.
  • step S101 the controller 21 selects one frame image from among the plurality of frame images constituting the moving image recognized in step S100.
  • the frames may be selected in order to make up the video. After selection, the process proceeds to step S102.
  • step S102 the controller 21 causes the display 12 to simultaneously display the first image im1 and the second image im2 in the image of the frame selected in step S101. In other words, the controller 21 causes the display 12 to display the third image im3. After displaying, the process proceeds to step S103.
  • step S103 the controller 21 causes the imaging device 10 to capture the third image im3, thereby generating the first superimposed image. After imaging, the process proceeds to step S104.
  • step S104 the controller 21 stores the first superimposed image generated in step S103 in the providing device 14. After storing, the process proceeds to step S105.
  • step S105 the controller 21 causes the display 12 to individually display the first image im1 among the images of the frame selected in step S101. After displaying, the process proceeds to step S106.
  • step S106 the controller 21 causes the imaging device 10 to capture the first image im1, thereby generating an image corresponding to the first image im1. After imaging, the process proceeds to step S107.
  • step S107 the controller 21 stores the image corresponding to the first image im1 generated in step S106 in the providing device 14 in association with the first superimposed image stored in the providing device 14 in the immediately preceding step S104. . After storing, the process proceeds to step S108.
  • step S108 the controller 21 causes the display 12 to individually display the second image im2 among the images of the frame selected in step S101. After displaying, the process proceeds to step S109.
  • step S109 the controller 21 causes the imaging device 10 to capture the second image im2, thereby generating an image corresponding to the second image im2. After imaging, the process proceeds to step S110.
  • step S110 the controller 21 stores the image corresponding to the second image im2 generated in step S109 in the providing device 14 in association with the first superimposed image stored in the providing device 14 in the immediately preceding step S104. . After storing, the process proceeds to step S111.
  • step S111 the controller 21 determines whether or not the imaging of the previous frame that constitutes the moving image recognized in step S100 has been completed. If all frames have been captured, the first generation process ends. If the imaging of the previous frame has not been completed, the process proceeds to step S112.
  • step S112 the controller 21 selects an image of another frame from the captured frame images of the first image im1, the second image im2, and the third image im3. After selection, the process returns to step S102.
  • the second generation process starts when the operating mode is switched to the first mode.
  • the second generation process is a process of generating learning data without individually displaying and capturing the first image im1 and the second image im2.
  • step S200 to S204 the controller 21 executes the same processing as steps S100 to S104 in the first generation process. After storing the first superimposed image in step S204, the process proceeds to step S205.
  • step S205 the controller 21 performs image processing to invert the second image im2 and displace it so that it is included in the light receiving area ra of the imaging device 10. After image processing, the process continues to step S206.
  • step S206 the controller 21 sets the first image im1 itself of the images of the frame selected in step S201 as an image corresponding to the first image im1, and uses the first superimposed image stored in the providing device 14 in the immediately preceding step S204. It is stored in the providing device 14 in association with the image. Further, the controller 21 associates the second image im2 subjected to the image processing in step S205 with the first superimposed image stored in the providing device 14 in the immediately preceding step S204, as an image corresponding to the second image im2. , stored in the providing device 14. After storing, the process proceeds to step S207.
  • step S207 and S208 the controller 21 executes the same processes as steps S111 and S112 in the first generation process.
  • the learning process starts when the operating mode is switched to the second mode.
  • step S300 the controller 21 reads the learning data stored in the providing device 14 through the first generation process or the second generation process. After reading, the process proceeds to step S301.
  • step S301 the controller 21 trains the image processing model using the learning data read out in step S300.
  • the controller 21 generates parameters for the learned image processing model. After learning, the process proceeds to step S302.
  • step S302 the controller 21 stores the parameters generated in step S301 in the providing device 14. After storing, the learning process ends.
  • light enters the imaging optical system 15 from outside the direct field of view of the imaging optical system 15 corresponding to the light receiving area ra of the image sensor 16.
  • an imaging device 10 equipped with an optical element 17 that focuses at least a part of the light beam into the light receiving area ra a first image im1 formed by an object point within the direct angle of view and the optical element 17 are used.
  • a third image im3 is captured that simultaneously displays a second image im2 on the display 12, which is formed by an object point that emits a light beam that forms an image within the light receiving area ra.
  • the imaging method can generate the first superimposed image by causing the imaging device 10 to capture an image that has been acquired in advance as information.
  • the superimposed image obtained by separating previously acquired images and partially inverting and superimposing them is an ideal superimposed image generated by the designed imaging device 10. Therefore, the superimposed image does not include the influence of mounting errors of the imaging optical system 15, the imaging element 16, and the optical element 17 in the imaging device 10 that is actually manufactured. Therefore, in learning an image processing model using the superimposed image, there may be a limit to the improvement in separation accuracy of the second superimposed image generated by the imaging device 10 that is actually manufactured.
  • the imaging method can generate the first superimposed image
  • the image processing model can be trained to further improve the separation accuracy of the second superimposed image compared to the case of using a superimposed image by image processing. . Therefore, the imaging method may allow the production of an imaging device 10 that produces extensive and magnified optical information.
  • the imaging device 10 is used to capture the first image im1 and the second image im2 to be individually displayed on the display 12.
  • the imaging method can obtain a non-superimposed image whose pixel positions match those of the first superimposed image. Therefore, the imaging method can train the image processing model to further improve the separation accuracy of the second superimposed image.
  • the first superimposed image is stored in association with images corresponding to the first image im1 and the second image im2 included in the third image im3.
  • the imaging method can easily use each superimposed image as learning data when generating the first superimposed image of a plurality of frames.
  • the imaging method includes: an image sensor having a light receiving area, an optical system that images incident first light on the light receiving area, and an angle between the optical axis of the optical system and the chief ray incident on the optical system that is the first Using an imaging device having an optical element that guides a second light different from the light to the light receiving area, A third image is captured in which a first image formed by the object point emitting the first light and a second image formed by the object point emitting the second light are simultaneously displayed on a display. .
  • a first superimposed image generated by the imaging device by capturing the third image is stored in association with images corresponding to the first image and the second image, respectively.
  • the first superimposed image generated by the imaging device by imaging the third image in the imaging method, and images corresponding to the first image and the second image, respectively, are used to obtain the first superimposed image.
  • An image processing model that separates the component and the second image component is trained.
  • Images respectively corresponding to the first image and the second image are images generated by the imaging device by respectively capturing the first image and the second image.
  • Images corresponding to the first image and the second image are the first image and the second image, respectively.
  • the learning data generation device an image sensor having a light receiving area, an optical system that images incident first light on the light receiving area, and an angle between the optical axis of the optical system and the chief ray incident on the optical system that is the first an imaging device having an optical element that guides a second light different from the light to the light receiving area; a display located within the field of view of the imaging device; A first image formed by an object point within the direct angle of view and a second image formed by an object point emitting a luminous flux that forms an image in the light receiving area via the optical element are simultaneously displayed on the display. and an information processing device that causes the imaging device to capture a third image.
  • the data structure is: A second superimposed image in which a first image component corresponding to the object point that emits the first light and a second image component corresponding to the object point that emits the second light are superimposed,
  • a data structure used for learning an image processing model that separates into an image component and a second image component the data structure comprising: a first image formed by the object point that emits the first light; a second image formed by the object point that emits the second light; a first superimposed image in which the first image and the second image are superimposed; Correspondence information indicating a correspondence relationship between the first image, the second image, and the first superimposed image,
  • the image processing model is trained using a combination of the first image, the second image, the first superimposed image, and the correspondence information as training data.
  • the embodiment of the imaging method using the imaging device 10 has been described above, but the embodiment of the present disclosure includes a method or a program for implementing the device, as well as a storage medium on which the program is recorded (as an example, It is also possible to take an embodiment as an optical disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, magnetic tape, hard disk, memory card, etc.).
  • the implementation form of a program is not limited to an application program such as an object code compiled by a compiler or a program code executed by an interpreter, but may also be in the form of a program module incorporated into an operating system. good.
  • the program may or may not be configured such that all processing is performed only in the CPU on the control board.
  • the program may be configured such that part or all of the program is executed by an expansion board attached to the board or another processing unit mounted in an expansion unit, as necessary.
  • the information processing device 13 generates learning data and learns an image processing model.
  • the information processing device 13 may not perform image processing model learning, and another information processing device may perform image processing model learning.
  • embodiments according to the present disclosure are not limited to any of the specific configurations of the embodiments described above. Embodiments of the present disclosure extend to any novel features or combinations thereof described in this disclosure, or to any novel methods or process steps or combinations thereof described. be able to.
  • descriptions such as “first” and “second” are identifiers for distinguishing the configurations.
  • the numbers in the configurations can be exchanged.
  • the first image component can exchange the identifiers “first” and “second” with the second image component.
  • the exchange of identifiers takes place simultaneously.
  • the configurations are distinguished.
  • Identifiers may be removed. Configurations from which the identifier has been removed are distinguished by a code.
  • the description of identifiers such as “first” and “second” in this disclosure should not be used to interpret the order of the configuration or to determine the existence of lower-numbered identifiers.
  • Imaging device 11 Learning data generation device 12
  • Display 13 Information processing device 14
  • Providing device 15
  • Imaging optical system 16
  • Controller 20
  • Input/output interface 21
  • Controller CRA From an object point at an angle twice the direct angle of view Angle of the emitted light flux with respect to the optical axis of the chief ray by the imaging optical system ic1 First image component ic2 Second image component im1 First image im2 Second image im3 Third image olim2 Second superimposed image ox Optical axis pp Object point at an angle twice the direct angle of view ra Light receiving area rcim Restored image

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)

Abstract

撮像方法は撮像装置を用いて第3の画像を撮像する。撮像装置は撮像素子と光学系と光学素子とを有する。光学系は入射する第1の光を受光領域に結像させる。光学素子は第2の光を受光領域に導く。第2の光は光学系の光軸と光学系に入射する主光線とのなす角度が第1の光と異なる。第3の画像は第1の画像及び第2の画像をディスプレイに同時に表示させた画像である。第1の画像は第1の光を放射する物点が形成する。第2の画像は第2の光を放射する物点が形成する。

Description

撮像方法、学習方法、学習データ生成装置、及びデータ構造 関連出願の相互参照
 本出願は、2022年7月13日に日本国に特許出願された特願2022-112719の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本開示は、撮像方法、学習方法、学習データ生成装置、及びデータ構造に関するものである。
 観察対象を結像させる撮像光学系は、焦点距離、画角等の多様な物性を有する。焦点距離が長くなると、観察対象が拡大化された像が形成されるので、遠方の観察対象の詳細な光学情報、言換えると拡大された光学情報が得られる。画角は広角化するほど、広範囲に位置する観察対象の光学情報が得られる。しかし、焦点距離と画角とはトレードオフの関係があり、焦点距離が長くなると画角は狭角化し、焦点距離が短くなると画角は広角化する。
 それゆえ、状況に応じて望まれる光学情報を得られるように焦点距離の調整が行われている。例えば、撮像光学系に含まれるズームレンズを変位させることにより、焦点距離の調整が行われる。又、複数の単焦点レンズを切替えることにより、焦点距離の調整が行われる(特許文献1、2参照)。
特開平11―311832号公報 特開2004―279556号公報
 第1の観点による撮像方法は、
 受光領域を有する撮像素子と、入射する第1の光を前記受光領域に結像させる光学系と、前記光学系の光軸と前記光学系に入射する主光線とのなす角度が前記第1の光と異なる第2の光を前記受光領域に導く光学素子と、を有する撮像装置を用いて、
 前記第1の光を放射する物点が形成する第1の画像及び前記前記第2の光を放射する物点が形成する第2の画像をディスプレイに同時に表示させた第3の画像を撮像する。
 第2の観点による学習方法は、
 受光領域を有する撮像素子と、入射する第1の光を前記受光領域に結像させる光学系と、前記光学系の光軸と前記光学系に入射する主光線とのなす角度が前記第1の光と異なる第2の光を前記受光領域に導く光学素子と、を有する撮像装置を用いて、
 前記第1の光を放射する物点が形成する第1の画像及び前記前記第2の光を放射する物点が形成する第2の画像をディスプレイに同時に表示させた第3の画像を撮像し、
 前記第3の画像の撮像により前記撮像装置が生成する第1の重畳画像を、前記第1の画像及び前記第2の画像にそれぞれ対応する画像と関連付けて記憶する撮像方法における前記第3の画像の撮像により前記撮像装置が生成する第1の重畳画像と、前記第1の画像及び前記第2の画像にそれぞれ対応する画像とを用いて、前記撮像装置が撮像する第2の重畳画像を前記第1の光を放射する物点に対応する第1の画像成分と前記第2の光を放射する物点に対応する第2の画像成分とに分離する画像処理モデルの学習を行う。
 第3の観点による学習データ生成装置は、
 受光領域を有する撮像素子と、入射する第1の光を前記受光領域に結像させる光学系と、前記光学系の光軸と前記光学系に入射する主光線とのなす角度が前記第1の光と異なる第2の光を前記受光領域に導く光学素子と、を有する撮像装置と、
 前記撮像装置の視野範囲内に位置するディスプレイと、
 前記第1の光を放射する物点が形成する第1の画像及び前記第2の光を放射する物点が形成する第2の画像を前記ディスプレイに同時に表示させた第3の画像を前記撮像装置に撮像させる情報処理装置と、を備える。
 第4の観点によるデータ構造は、
 第1の光を放射する物点に対応する第1の画像成分と第2の光を放射する物点に対応する第2の画像成分とが重畳された第2の重畳画像を、前記第1の画像成分と前記第2の画像成分に分離する画像処理モデルの学習に用いられるデータ構造であって、
 前記第1の光を放射する物点が形成する第1の画像と、
 前記第2の光を放射する物点が形成する第2の画像と、
 前記第1の画像及び前記第2の画像を重畳させた第1の重畳画像と、
 前記第1の画像、前記第2の画像、及び前記第1の重畳画像、との対応関係を示す対応情報と、を備え、
 前記画像処理モデルを、前記第1画像、前記第2画像、前記第1重畳画像、及び前記対応情報の組合せを教師データとして用いて、学習させる。
本実施形態に係る撮像方法に用いられる撮像装置を含む学習データ生成装置の概略構成を示す外観図である。 図1の撮像装置の概略構成を示す構成図である。 図2の撮像素子及び光学系の物性を説明するための図である。 図2の受光領域に到達する像を説明する概念図である。 図2の受光領域に到達する重畳画像が形成される状況を説明する概念図である。 図2のコントローラにより重畳画像から復元画像を生成する過程を説明するための概念図である。 図1の情報処理装置の概略構成を示す機能ブロック図である。 図1のディスプレイに表示される第3の画像を説明するための図である。 図7のコントローラが実行する第1の生成処理を説明するためのフローチャートである。 図7のコントローラが実行する第2の生成処理を説明するためのフローチャートである。 図7のコントローラが実行する学習処理を説明するためのフローチャートである。
 以下、本開示の実施形態について、図面を参照して説明する。以下の図面に示す構成要素において、同じ構成要素には同じ符号を付す。
 図1に示すように、本開示の一実施形態に係る撮像方法に用いられる撮像装置10を含む学習データ生成装置11は、撮像装置10、ディスプレイ12、及び情報処理装置13を含んで構成される。学習データ生成装置11は、更に、画像データを提供する提供装置14を含んで構成されてよい。
 学習データ生成装置11は、撮像装置10に適用される画像処理モデルの学習用のデータを生成してよい。画像処理モデルは、撮像装置10が撮像により生成する第2の重畳画像を第1の画像成分及び第2の画像成分に分離する。学習データ生成装置11は、後述するように、情報処理装置13がディスプレイ12に表示させた画像を撮像装置10で撮像させることにより、学習データを生成する。
 撮像装置10は、量産品であってよい。画像処理モデルのパラメータを付与する前の撮像装置10が、学習データ生成装置11に用いられてよい。当該撮像装置10を用いた学習データ生成装置11により学習データが生成されてよい。学習データを用いた学習により、画像処理モデルのパラメータが生成されてよい。当該パラメータが、他の撮像装置10に付与されてよい。
 図2に示すように、撮像装置10は、撮像光学系(光学系)15、撮像素子16、及び光学素子17を含んで構成される。撮像装置10は、更にメモリ18及びコントローラ19を含んで構成されてよい。
 撮像光学系15は、入射する被写体光束を結像させる。撮像光学系15は、撮像装置10において、後述する撮像素子16の受光領域に、入射する第1の光を結像させる。第1の光は、撮像光学系15の画角内に位置する物点が放射する光であってよい。以後、撮像光学系15単体、言換えると光学素子17を含まない構成における画角を、直接画角とも呼ぶ。撮像光学系15は、位置の異なる物点から放射する光束を、単体で、言換えると光学素子17無しで、異なる像点に結像させる光学素子によって構成されてよい。撮像光学系15を構成する光学素子は、例えば、レンズ、ミラー、絞り等である。
 撮像光学系15は、像側テレセントリックでなくてよい。言換えると、撮像光学系15を通過する任意の光束の主光線の光軸に対する角度は0°より大きくてよい。
 撮像素子16は、受光領域raを有する。撮像素子16は、撮像光学系15を介して受光領域ra内に結像する像を撮像する。撮像素子16は、可視光、赤外線及び紫外線等の不可視光による像を撮像可能であってよい。撮像素子16は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ等である。撮像素子16は、カラーイメージセンサであってよい。言換えると、撮像素子16の受光領域raに配置される複数の画素は、例えばRGBのカラーフィルタによって受光領域ra内で均等に分布するように覆われてよい。撮像素子16は、撮像により受光する画像に相当する画像信号を生成する。撮像素子16は、30fps等の所定のフレームレートで画像信号を生成してよい。
 撮像素子16では、後述する光学素子17が設けられる側の受光領域raの外縁は、撮像光学系15の射出瞳の外縁よりも外側に位置してよい。射出瞳の外縁より外側とは、撮像光学系15の光軸oxを基準として外側であることを意味する。受光領域raは、矩形であってよい。
 光学素子17は、第2の光を受光領域に導く。第2の光は、撮像光学系15の光軸oxと撮像光学系15に入射する主光線とのなす角度が第1の光と異なる。第2の光は、撮像光学系15の画角外、言換えると直接画角の外に位置する物点が放射する光であってよい。主光線は、撮像光学系15の開口絞りの中心を通る光線、撮像光学系15の入射瞳の中心を通る光線、及び任意の一つの物点から放射され撮像光学系15に入射する光束の中心の光線のいずれかであってよい。更には、光学素子17は、撮像光学系15の直接画角の外から撮像光学系15に入射する光束の少なくとも一部を撮像素子16の受光領域ra内に結像させてよい。直接画角は、撮像素子16の受光領域raに対応し、前述のように撮像光学系15単体での画角であり、光学素子17を介することなく受光領域ra内に結像する物点の範囲に相当する画角である。
 光学素子17は、撮像光学系15に入射した光束の少なくとも一部を反射して受光領域raに導くミラーであってよい。ミラーは、撮像光学系15に入射する第2の光を受光領域raに結像させてよい。ミラーの反射面は、撮像光学系15の光軸oxに平行であってよい。ミラーの反射面は、矩形の受光領域raのいずれかの辺に平行であってよい。
 ミラーは、撮像光学系15の光軸ox方向から見て、当該撮像光学系15の射出瞳の外側に位置してよい。更に詳細には、反射面が射出瞳の外側に位置するように、ミラーは撮像光学系15に対して配置されてよい。
 ミラーは、複数の平面ミラーを含んでよい。複数の平面ミラーの中の少なくとも1組に属する2つの平面ミラーは、反射面が互いに対向し平行になるように位置してよい。平面ミラーと撮像素子16の受光領域raの外縁とは、当該平面ミラーの法線方向において密接していてよい。
 図3に示すように、反射面が互いに平行な2つの平面ミラーそれぞれと、光軸oxとの間隔Hが等しくてよい。互い平行な2つの平面ミラー、撮像光学系15、及び撮像素子16は、CRA≦tan-1(H/B)を満たすように設計され、配置されてよい。CRAは、直接画角の2倍の角度における物点ppから放射される光束の撮像光学系15による主光線の光軸oxに対する角度である。Bは、撮像光学系15のバックフォーカスである。
 上述のような構成により、図4に示すように、撮像素子16の受光領域raには、直接画角内の物点、言換えると第1の光を放射する物点に対応する第1の画像成分ic1が光学素子17を介することなく到達する。直接画角内の物点に対応する第1の画像成分ic1とは、より具体的には、直接画角内に位置する被写体像に相当する。又、受光領域raには、直接画角外の物点、言換えると第2の光を放射する物点に対応する第2の画像成分ic2が光学素子17を介して反転して到達する。言換えると、第2の画像成分ic2は、光学素子17を介して受光領域raに結像する画像成分である。直接画角外の物点に対応する第2の画像成分ic2とは、より具体的には、直接画角外に位置する被写体像に相当する。
 又、上述のような構成により、図5に示すように、第1の画像成分ic1と、光学素子17がミラーである構成において反転した第2の画像成分ic2とが受光領域raにおいて重畳する。したがって、撮像素子16は、第1の画像成分ic1と、光学素子17がミラーである構成において反転した第2の画像成分ic2との第2の重畳画像olim2を撮像する。
 メモリ18は、例えば、RAM(Random Access Memory)及びROM(Read Only Memory)など、任意の記憶デバイスを含む。メモリ18は、コントローラ19を機能させる多様なプログラム及びコントローラ19が用いる多様な情報を記憶してよい。メモリ18は、例えば、前述の汎用の画像処理モデルのパラメータを記憶してよい。ただし、学習データ生成装置11に適用される撮像装置10において、メモリ18は当該パラメータを記憶していなくてよい。
 コントローラ19は、少なくとも1つのプロセッサ、少なくとも1つの専用回路又はこれらの組み合わせを含んで構成される。プロセッサは、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の汎用プロセッサ又は特定の処理に特化した専用プロセッサである。専用回路は、例えば、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等であってもよい。コントローラ19は、撮像素子16から取得する画像信号に画像処理を施してよい。
 図6に示すように、コントローラ19は、画像処理により、画像信号に相当する第2の重畳画像olim2を、第1の画像成分ic1と、第2の画像成分ic2とに分離する画像処理を施してよい。コントローラ19は、画像処理モデルの適用により、第2の重畳画像olim2を分離してよい。画像処理モデルは、後述するように、第1の画像及び第2の画像を重畳させた第1の重畳画像に対して、第1の画像及び第2の画像を正解として学習させることにより構築されるモデルである。画像分離モデルは、Encoder-Decoderモデルのように画像を生成するgeneratorと、生成された画像が偽画像かどうか判定するdiscriminatorとを競わせて、その関係を反映したペア画像を生成するPix-to-Pixを適用したモデルであってよい。コントローラ19は、分離した第1の画像成分ic1及び第2の画像成分ic2を結合させることにより、復元画像rcimを生成してよい。
 コントローラ19は、復元画像rcimを用いて、撮像装置10周辺において撮像された被写体の測距を行ってよい。コントローラ19は、例えば、DFD(Depth From Defocus)に基づいて、復元画像rcimを用いて測距を行う。コントローラ19は、運動視差法(SLAM:Simultaneous Localization and Mapping、Motion Stereo)、Deep Learningに基づく分離モデル、足元測距法等に基づいて、復元画像rcimを用いた測距を行ってよい。足元測距法は、被写体像の下端が地面に位置することを前提として画像座標に基づいて3次元座標を算出する方法である。
 コントローラ19は、復元画像rcimの各アドレスに対応する距離に基づいて、距離画像を生成してよい。距離画像は、各画素の画素値が距離に対応した画像である。コントローラ19は、距離画像を外部機器に付与してよい。
 図1に示すように、ディスプレイ12は、画像を表示してよい。ディスプレイ12は、例えば、LCD(liquid Crystal Display)、PDP(Plasma Display Panel)、及びOLED(Organic Electroluminescent Display)を含んでよい。
 ディスプレイ12は、学習データ生成装置11において、撮像装置10の視野範囲内に位置する。学習データ生成装置11において、ディスプレイ12の表示面が撮像装置10の視野範囲全体を含むように、ディスプレイ12は配置されてよい。ディスプレイ12及び撮像装置10は、学習データ生成装置11において、事前に定められた相対位置及び相対姿勢となるように位置づけられてよい。例えば、撮像装置10の光軸oxがディスプレイ12の表示面に垂直且つ当該表示面の中心を通るように、ディスプレイ12及び撮像装置10は配置されてよい。
 提供装置14は、複数のフレームの画像をディスプレイ12に提供してよい。複数のフレームの画像は事前に取得されていてよい。複数のフレームの画像は、本願の撮像装置10とは異なり、光学素子17を設けることなく直接画角内の光景のみを撮像可能な撮像装置を用いた撮像により生成されてよい。提供装置14は、例えば、動画を構成する複数のフレームの画像を記憶してよい。提供装置14は、情報処理装置13の制御に基づいて、画像をディスプレイ12に提供してよい。提供装置14は、情報処理装置13の制御に基づいて加工した画像をディスプレイ12に提供してよい。提供装置14は、情報処理装置13と一体化されていてよい。
 図7に示すように、情報処理装置13は、入出力インタフェース20及びコントローラ21を含んで構成されてよい。
 入出力インタフェース20は、情報処理装置13の外部機器との情報及び指令を通信してよい。学習データ生成装置11において入出力インタフェース20は、撮像装置10及び提供装置14に接続されてよい。
 コントローラ21は、少なくとも1つのプロセッサ、少なくとも1つの専用回路又はこれらの組み合わせを含んで構成される。プロセッサは、CPU、GPU等の汎用プロセッサ又は特定の処理に特化した専用プロセッサである。専用回路は、例えば、FPGA、ASIC等であってもよい。
 コントローラ21は、動作モードとして、第1のモード及び第2のモードを情報処理装置13に選択的に付与してよい。第1のモードでは、情報処理装置13は、学習用データを生成してよい。第2のモードでは、情報処理装置13は、学習用データを用いて画像処理モデルを学習させてよい。コントローラ21は、情報処理装置13に設けられるキーボード等の入力デバイスへの操作入力の検出に基づいて、動作モードを第1のモード及び第2のモードのいずれかに切替えてよい。
 コントローラ21は、第1のモードにおいて、提供装置14を制御することにより、画像をフレーム別にディスプレイ12に表示させてよい。図8に示すように、各フレームの画像は複数の部分画像を含む。部分画像は、第1の画像im1及び第2の画像im2を含んでよい。第1の画像im1及び第2の画像im2を同時にディスプレイ12に表示する画像を第3の画像im3と呼ぶ。
 第1の画像im1は、直接画角内の物点、言換えると第1の光を放射する物点により形成される領域の部分像である。例えば、第1の画像im1は、学習データ生成装置11のディスプレイ12において撮像装置10の直接画角内の全領域に表示される部分画像であってよい。第2の画像im2は、撮像装置10の光学素子17を介して受光領域raに結像する光束を放射する物点、言換えると第2の光を放射する物点により形成される領域の部分像である。例えば、第2の画像im2は、学習データ生成装置11のディスプレイ12において、第1の画像im1に連続し且つ直接画角よりも広い角度範囲内に含まれる領域に表示される部分画像であってよい。
 前述のように、撮像装置10のディスプレイ12に対する相対位置及び相対姿勢が事前に定められていてよい。コントローラ21は、設計上の相対位置及び相対姿勢において、直接画角に対応する領域及び直接画角外の領域を認識してよい。コントローラ21は、直接画角に対応する領域及び直接画角外の領域を、撮像装置10の直接画角及び焦点距離等の撮像光学系15の特性に基づいて算出することにより認識してよい。コントローラ21は、撮像光学系15の特性に基づいて予め算出された直接画角に対応する領域及び直接画角外の領域を撮像装置10等から取得することにより認識してよい。
 コントローラ21は、第1の画像im1及び第2の画像im2を同時にディスプレイ12に表示させる。コントローラ21は、第1の画像im1及び第2の画像im2を同時に表示させる状態で、同時に表示される第3の画像im3を撮像装置10に撮像させる。コントローラ21は、第3の画像im3の撮像により撮像装置10が生成する第1の重畳画像を、任意のメモリに記憶させる。任意のメモリは、情報処理装置13が有するメモリ、情報処理装置13に接続される外部メモリ、及び提供装置14の少なくともいずれかを含んでよい。本実施形態において、任意のメモリは提供装置14であってよい。
 コントローラ21は、第3の画像im3の撮像後、当該第3の画像im3における第1の画像im1及び第2の画像im2を個別に順番にディスプレイ12に表示させる。個別に表示させるとは、第1の画像im1の表示時に、直接画角外の異なる物点それぞれから実質的に異なる光量である光学情報を撮像装置10の受光領域raに到達させないことを意味してよい。例えば、第1の画像im1の表示時に、直接画角外の領域が単一の色となるようにディスプレイ12に表示してよい。又、個別に表示させるとは、第2の画像im2の表示時に、直接画角内の異なる物点それぞれから実質的に異なる光量である光学情報を撮像装置10の受光領域raに到達させないことを意味してよい。
 コントローラ21は、例えば、ディスプレイ12に表示している第3の画像im3の直接画角外の領域を黒色等でマスクする画像処理を行うことにより、第1の画像im1を個別に表示させてよい。又、コントローラ21は、例えば、ディスプレイ12に表示している第3の画像im3の直接画角内の領域を黒色等でマスクする画像処理を行うことにより、第2の画像im2を個別に表示させてよい。コントローラ21は、特定の領域をマスクする画像処理を、コントローラ21の代わりに提供装置14に行わせてよい。
 コントローラ21は、第1の画像im1が個別表示されている状態で、当該第1の画像im1を撮像装置10に撮像させる。コントローラ21は、第2の画像im2が個別表示されている状態で、当該第2の画像im2を撮像装置10に撮像させる。コントローラ21は、第1の画像im1の撮像により撮像装置10が生成した画像を第1の画像im1に対応する画像として、当該第1の画像im1を含む第3の画像im3に対応する第1の重畳画像と関連付けて、提供装置14に記憶させてよい。コントローラ21は、第2の画像im2の撮像により撮像装置10が生成した画像を第2の画像im2に対応する画像として、当該第2の画像im2を含む第3の画像im3に対応する第1の重畳画像と関連付けて、提供装置14に記憶させてよい。
 コントローラ21は、第1の画像im1及び第2の画像im2の個別の表示及び撮像の代わりに、第3の画像im3を撮像するたびに、当該第3の画像imに含まれる第1の画像im1及び第2の画像im2を提供装置14から取得してよい。コントローラ21は、提供装置14から取得した第1の画像im1を第1の画像im1に対応する画像として、当該第1の画像im1を含む第3の画像im3に対応する第1の重畳画像と関連付けて、提供装置14に記憶させてよい。コントローラ21は、提供装置14から取得した第2の画像im2を第2の画像im2に対応する画像として、当該第2の画像im2を含む第3の画像im3に対応する第1の重畳画像と関連付けて、提供装置14に記憶させてよい。
 コントローラ21は、動画像のように複数のフレームの画像群において、フレーム別に第1の重畳画像の生成、及び当該第1の重畳画像と第1の画像im1に相当する画像及び第2の画像im2に相当する画像とを関連付けた記憶を行ってよい。コントローラ21は、第1の重畳画像及び当該第1の重畳画像と第1の画像im1に相当する画像及び第2の画像im2にそれぞれ対応する画像とを関連付けた組合せを、学習用データとして生成する。
 コントローラ21は、第2のモードにおいて、提供装置14に記憶させた学習用データを用いて、画像処理モデルの学習を行う。言換えると、コントローラ21は、第1の重畳画像と、第1の画像im1及び第2の画像im2を個別の撮像により撮像装置10がそれぞれ生成する画像を用いて、画像処理モデルの学習を行う。又は、コントローラ21は、第2のモードにおいて、第1の重畳画像と、第1の画像im1及び第2の画像im2とを用いて画像処理モデルの学習を行う。
 次に、本実施形態においてコントローラ21が実行する、第1の生成処理について、図9のフローチャートを用いて説明する。第1の生成処理は、動作モードが第1のモードに切替えられる場合に開始する。第1の生成処理は、第1の画像im1及び第2の画像im2を個別に表示及び撮像させることにより学習用データを生成する処理である。
 ステップS100において、コントローラ21は、提供装置14に格納されている動画の中から、学習用データの生成に用いる動画を認識する。動画の認識は、例えば、情報処理装置13に設けられるキーボード等の入力デバイスへの操作入力の検出に基づく。認識後、プロセスはステップS101に進む。
 ステップS101では、コントローラ21は、ステップS100において認識した動画を構成する複数のフレームの画像の中から1フレームの画像を選択する。フレームは、動画を構成する順番に選択されてよい。選択後、プロセスはステップステップS102に進む。
 ステップS102では、コントローラ21は、ステップS101において選択したフレームの画像における第1の画像im1及び第2の画像im2を同時にディスプレイ12表示させる。言換えるとコントローラ21は、第3の画像im3をディスプレイ12に表示させる。表示後、プロセスはステップS103に進む。
 ステップS103では、コントローラ21は、撮像装置10に第3の画像im3を撮像させることにより、第1の重畳画像を生成させる。撮像後、プロセスはステップS104に進む。
 ステップS104では、コントローラ21は、ステップS103において生成した第1の重畳画像を提供装置14に格納する。格納後、プロセスはステップS105に進む。
 ステップS105では、コントローラ21は、ステップS101において選択したフレームの画像における第1の画像im1を個別にディスプレイ12に表示させる。表示後、プロセスはステップS106に進む。
 ステップS106では、コントローラ21は、撮像装置10に第1の画像im1を撮像させることにより、第1の画像im1に対応する画像を生成させる。撮像後、プロセスはステップS107に進む。
 ステップS107では、コントローラ21は、ステップS106において生成した第1の画像im1に対応する画像を、直前のステップS104において提供装置14に格納した第1の重畳画像と関連付けて、提供装置14に格納する。格納後、プロセスはステップS108に進む。
 ステップS108では、コントローラ21は、ステップS101において選択したフレームの画像における第2の画像im2を個別にディスプレイ12に表示させる。表示後、プロセスはステップS109に進む。
 ステップS109では、コントローラ21は、撮像装置10に第2の画像im2を撮像させることにより、第2の画像im2に対応する画像を生成させる。撮像後、プロセスはステップS110に進む。
 ステップS110では、コントローラ21は、ステップS109において生成した第2の画像im2に対応する画像を、直前のステップS104において提供装置14に格納した第1の重畳画像と関連付けて、提供装置14に格納する。格納後、プロセスはステップS111に進む。
 ステップS111では、コントローラ21は、ステップS100において認識した動画を構成する前フレームの画像に対する撮像が終了したか否かを判別する。全フレームの撮像が終了している場合、第1の生成処理は終了する。前フレームの撮像が終了していない場合、プロセスはステップS112に進む。
 ステップS112では、コントローラ21は、第1の画像im1、第2の画像im2、及び第3の画像im3の撮像済みであるフレーム画像の他のフレームの画像を選択する。選択後、プロセスはステップS102に戻る。
 次に、本実施形態においてコントローラ21が実行する、第2の生成処理について、図10のフローチャートを用いて説明する。第2の生成処理は、動作モードが第1のモードに切替えられる場合に開始する。第2の生成処理は、第1の画像im1及び第2の画像im2の個別の表示及び撮像を行うことなく学習用データを生成する処理である。
 ステップS200からS204において、コントローラ21は、第1の生成処理におけるステップS100からS104と同じ処理を実行する。ステップS204において、第1の重畳画像の格納後、プロセスはステップS205に進む。
 ステップS205では、コントローラ21は、第2の画像im2を反転して、撮像装置10の受光領域ra内に含まれるように変位させる画像処理を行う。画像処理後、プロセスはステップS206に進む。
 ステップS206では、コントローラ21は、ステップS201において選択したフレームの画像の第1の画像im1そのものを第1の画像im1に対応する画像として、直前のステップS204において提供装置14に格納した第1の重畳画像と関連付けて、提供装置14に格納する。更に、コントローラ21は、ステップS205において画像処理を施した第2の画像im2を第2の画像im2に対応する画像として、直前のステップS204において提供装置14に格納した第1の重畳画像と関連付けて、提供装置14に格納する。格納後、プロセスはステップS207に進む。
 ステップS207及びS208では、コントローラ21は、第1の生成処理におけるステップS111及びS112と同じ処理を実行する。
 次に、本実施形態においてコントローラ21が実行する、学習処理について、図11のフローチャートを用いて説明する。学習処理は、動作モードが第2のモードに切替えられる場合に開始する。
 ステップS300において、コントローラ21は、第1の生成処理又は第2の生成処理により提供装置14に格納された学習用データを読出す。読出し後、プロセスはステップS301に進む。
 ステップS301では、コントローラ21は、ステップS300において読出した学習用データを用いて、画像処理モデルを学習させる。コントローラ21は、学習させた画像処理モデルのパラメータを生成する。学習後、プロセスはステップS302に進む。
 ステップS302では、コントローラ21は、ステップS301において生成したパラメータを提供装置14に格納する。格納後、学習処理は終了する。
 以上のような構成の本実施形態の情報処理装置13を用いた撮像方法では、撮像素子16の受光領域raに対応する撮像光学系15の直接画角の外から当該撮像光学系15に入射する光束の少なくとも一部を当該受光領域ra内に結像させる光学素子17とを備える撮像装置10を用いて、直接画角内の物点が形成する第1の画像im1及び光学素子17を介して受光領域ra内に結像する光束を放射する物点が形成する第2の画像im2をディスプレイ12に同時に表示させる第3の画像im3を撮像する。このような構成により、撮像方法は、情報として事前に取得済みの画像を撮像装置10に撮像させることにより、第1の重畳画像を生成し得る。事前に取得済みの画像の分離及び一部の反転重畳させる加工を行うことにより得られる重畳画像は、設計上の撮像装置10が生成する理想的な重畳画像である。それゆえ、当該重畳画像は、実際に製造される撮像装置10における撮像光学系15、撮像素子16、及び光学素子17の取付誤差の影響が含まれない。それゆえ、当該重畳画像を用いた画像処理モデルの学習では、実際に製造される撮像装置10が生成する第2の重畳画像の分離精度の向上には限界が生じ得る。一方で、撮像方法は第1の重畳画像を生成し得るので、画像処理による重畳画像を用いる場合に比べて、第2の重畳画像の分離精度を更に向上させるように画像処理モデルを学習させ得る。それゆえ、撮像方法は、広範囲且つ拡大された光学情報を生成する撮像装置10を製造させ得る。
 また、本実施形態の撮像方法では、撮像装置10を用いて、個別にディスプレイ12に表示させる第1の画像im1及び第2の画像im2を撮像する。このような構成により、撮像方法は、第1の重畳画像に対して画素位置を一致させた、重畳していない画像を取得し得る。したがって、撮像方法は、第2の重畳画像の分離精度を更に向上させるように画像処理モデルを学習させ得る。
 また、本実施形態の撮像方法では、第1の重畳画像を、第3の画像im3が含む第1の画像im1及び第2の画像im2にそれぞれ対応する画像と関連付けて記憶する。このような構成により、撮像方法は、複数のフレームの第1の重畳画像を生成する際に、それぞれの重畳画像を容易に学習データとして使用させ得る。
 一実施形態において、(1)撮像方法は、
 受光領域を有する撮像素子と、入射する第1の光を前記受光領域に結像させる光学系と、前記光学系の光軸と前記光学系に入射する主光線とのなす角度が前記第1の光と異なる第2の光を前記受光領域に導く光学素子と、を有する撮像装置を用いて、
 前記第1の光を放射する物点が形成する第1の画像及び前記前記第2の光を放射する物点が形成する第2の画像をディスプレイに同時に表示させた第3の画像を撮像する。
 (2)上記(1)の撮像方法では、
 前記撮像装置を用いて、更に、個別に前記ディスプレイに表示させた前記第1の画像及び前記第2の画像を撮像する。
 (3)上記(1)又は(2)の撮像方法では、
 前記第3の画像の撮像により前記撮像装置が生成する第1の重畳画像を、前記第1の画像及び前記第2の画像にそれぞれ対応する画像と関連付けて記憶する。
 (4)上記(3)の撮像方法を適用した学習方法では、
 前記撮像方法における前記第3の画像の撮像により前記撮像装置が生成する第1の重畳画像と、前記第1の画像及び前記第2の画像にそれぞれ対応する画像とを用いて、前記第1の光を放射する物点に対応する第1の画像成分と前記第2の光を放射する物点に対応する第2の画像成分とが重畳された第2の重畳画像を、前記第1の画像成分と前記第2の画像成分とに分離する画像処理モデルの学習を行う。
 (5)上記(4)の撮像方法を適用した学習方法では、
 前記第1の画像及び前記第2の画像にそれぞれ対応する画像は、前記第1の画像及び前記第2の画像の個別の撮像により前記撮像装置がそれぞれ生成する画像である。
 (6)上記(4)の撮像方法を適用した学習方法では、
 前記第1の画像及び前記第2の画像にそれぞれ対応する画像は、前記第1の画像及び前記第2の画像である。
 一実施形態において、(7)学習データ生成装置は、
 受光領域を有する撮像素子と、入射する第1の光を前記受光領域に結像させる光学系と、前記光学系の光軸と前記光学系に入射する主光線とのなす角度が前記第1の光と異なる第2の光を前記受光領域に導く光学素子と、を有する撮像装置と、
 前記撮像装置の視野範囲内に位置するディスプレイと、
 前記直接画角内の物点が形成する第1の画像及び前記光学素子を介して前記受光領域内に結像する光束を放射する物点が形成する第2の画像を前記ディスプレイに同時に表示させた第3の画像を前記撮像装置に撮像させる情報処理装置と、を備える。
 一実施形態において、(8)データ構造は、
 第1の光を放射する物点に対応する第1の画像成分と第2の光を放射する物点に対応する第2の画像成分とが重畳された第2の重畳画像を、前記第1の画像成分と前記第2の画像成分に分離する画像処理モデルの学習に用いられるデータ構造であって、
 前記第1の光を放射する物点が形成する第1の画像と、
 前記第2の光を放射する物点が形成する第2の画像と、
 前記第1の画像及び前記第2の画像を重畳させた第1の重畳画像と、
 前記第1の画像、前記第2の画像、及び前記第1の重畳画像、との対応関係を示す対応情報と、を備え、
 前記画像処理モデルを、前記第1画像、前記第2画像、前記第1重畳画像、及び前記対応情報の組合せを教師データとして用いて、学習させる。
 以上、撮像装置10を用いた撮像方法の実施形態を説明してきたが、本開示の実施形態としては、装置を実施するための方法又はプログラムの他、プログラムが記録された記憶媒体(一例として、光ディスク、光磁気ディスク、CD-ROM、CD-R、CD-RW、磁気テープ、ハードディスク、又はメモリカード等)としての実施態様をとることも可能である。
 また、プログラムの実装形態としては、コンパイラによってコンパイルされるオブジェクトコード、インタプリタにより実行されるプログラムコード等のアプリケーションプログラムに限定されることはなく、オペレーティングシステムに組み込まれるプログラムモジュール等の形態であってもよい。さらに、プログラムは、制御基板上のCPUにおいてのみ全ての処理が実施されるように構成されてもされなくてもよい。プログラムは、必要に応じて基板に付加された拡張ボード又は拡張ユニットに実装された別の処理ユニットによってその一部又は全部が実施されるように構成されてもよい。
 本開示に係る実施形態について説明する図は模式的なものである。図面上の寸法比率等は、現実のものとは必ずしも一致していない。
 本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は改変を行うことが可能であることに注意されたい。従って、これらの変形又は改変は本開示の範囲に含まれることに留意されたい。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
 例えば、本実施形態において、情報処理装置13が、学習用データの生成及び画像処理モデルの学習を行う。しかし、情報処理装置13は画像処理モデルの学習を行わず、別の情報処理装置が画像処理モデルの学習を行ってよい。
 本開示に記載された構成要件の全て、及び/又は、開示された全ての方法、又は、処理の全てのステップについては、これらの特徴が相互に排他的である組合せを除き、任意の組合せで組み合わせることができる。また、本開示に記載された特徴の各々は、明示的に否定されない限り、同一の目的、同等の目的、または類似する目的のために働く代替の特徴に置換することができる。したがって、明示的に否定されない限り、開示された特徴の各々は、包括的な一連の同一、又は、均等となる特徴の一例にすぎない。
 さらに、本開示に係る実施形態は、上述した実施形態のいずれの具体的構成にも制限されるものではない。本開示に係る実施形態は、本開示に記載された全ての新規な特徴、又は、それらの組合せ、あるいは記載された全ての新規な方法、又は、処理のステップ、又は、それらの組合せに拡張することができる。
 本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1の画像成分は、第2の画像成分と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 10 撮像装置
 11 学習データ生成装置
 12 ディスプレイ
 13 情報処理装置
 14 提供装置
 15 撮像光学系
 16 撮像素子
 17 光学素子
 18 メモリ
 19 コントローラ
 20 入出力インタフェース
 21 コントローラ
 CRA 直接画角の2倍の角度における物点から放射される光束の撮像光学系による主光線の光軸に対する角度
 ic1 第1の画像成分
 ic2 第2の画像成分
 im1 第1の画像
 im2 第2の画像
 im3 第3の画像
 olim2 第2の重畳画像
 ox 光軸
 pp 直接画角の2倍の角度における物点
 ra 受光領域
 rcim 復元画像

Claims (8)

  1.  受光領域を有する撮像素子と、入射する第1の光を前記受光領域に結像させる光学系と、前記光学系の光軸と前記光学系に入射する主光線とのなす角度が前記第1の光と異なる第2の光を前記受光領域に導く光学素子と、を有する撮像装置を用いて、
     前記第1の光を放射する物点が形成する第1の画像及び前記前記第2の光を放射する物点が形成する第2の画像をディスプレイに同時に表示させた第3の画像を撮像する
     撮像方法。
  2.  請求項1に記載の撮像方法において、
     前記撮像装置を用いて、更に、個別に前記ディスプレイに表示させた前記第1の画像及び前記第2の画像を撮像する
     撮像方法。
  3.  請求項1又は2に記載の撮像方法において、
     前記第3の画像の撮像により前記撮像装置が生成する第1の重畳画像を、当該第3の画像が含む前記第1の画像及び前記第2の画像にそれぞれ対応する画像と関連付けて記憶する
     撮像方法。
  4.  請求項3に記載の撮像方法における前記第3の画像の撮像により前記撮像装置が生成する第1の重畳画像と、前記第1の画像及び前記第2の画像にそれぞれ対応する画像とを用いて、前記第1の光を放射する物点に対応する第1の画像成分と前記第2の光を放射する物点に対応する第2の画像成分とが重畳された第2の重畳画像を、前記第1の画像成分と前記第2の画像成分に分離する画像処理モデルの学習を行う
     学習方法。
  5.  請求項4に記載の学習方法において、
     前記第1の画像及び前記第2の画像にそれぞれ対応する画像は、前記第1の画像及び前記第2の画像の個別の撮像により前記撮像装置がそれぞれ生成する画像である
     学習方法。
  6.  請求項4に記載の学習方法において、
     前記第1の画像及び前記第2の画像にそれぞれ対応する画像は、前記第1の画像及び前記第2の画像である
     学習方法。
  7.  受光領域を有する撮像素子と、入射する第1の光を前記受光領域に結像させる光学系と、前記光学系の光軸と前記光学系に入射する主光線とのなす角度が前記第1の光と異なる第2の光を前記受光領域に導く光学素子と、を有する撮像装置と、
     前記撮像装置の視野範囲内に位置するディスプレイと、
     前記第1の光を放射する物点が形成する第1の画像及び前記第2の光を放射する物点が形成する第2の画像を前記ディスプレイに同時に表示させた第3の画像を前記撮像装置に撮像させる情報処理装置と、を備える
     学習データ生成装置。
  8.  第1の光を放射する物点に対応する第1の画像成分と第2の光を放射する物点に対応する第2の画像成分とが重畳された第2の重畳画像を、前記第1の画像成分と前記第2の画像成分に分離する画像処理モデルの学習に用いられるデータ構造であって、
     前記第1の光を放射する物点が形成する第1の画像と、
     前記第2の光を放射する物点が形成する第2の画像と、
     前記第1の画像及び前記第2の画像を重畳させた第1の重畳画像と、
     前記第1の画像、前記第2の画像、及び前記第1の重畳画像、との対応関係を示す対応情報と、を備え、
     前記画像処理モデルを、前記第1画像、前記第2画像、前記第1重畳画像、及び前記対応情報の組合せを教師データとして用いて、学習させる
     データ構造。
PCT/JP2023/025336 2022-07-13 2023-07-07 撮像方法、学習方法、学習データ生成装置、及びデータ構造 WO2024014415A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022112719A JP2024011041A (ja) 2022-07-13 2022-07-13 撮像方法、学習方法、学習データ生成装置、及びデータ構造
JP2022-112719 2022-07-13

Publications (1)

Publication Number Publication Date
WO2024014415A1 true WO2024014415A1 (ja) 2024-01-18

Family

ID=89536720

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/025336 WO2024014415A1 (ja) 2022-07-13 2023-07-07 撮像方法、学習方法、学習データ生成装置、及びデータ構造

Country Status (2)

Country Link
JP (1) JP2024011041A (ja)
WO (1) WO2024014415A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014176056A (ja) * 2013-03-13 2014-09-22 Fujifilm Corp 撮像装置
JP2016012007A (ja) * 2014-06-27 2016-01-21 富士フイルム株式会社 画像表示装置及び画像表示方法
JP2016046773A (ja) * 2014-08-26 2016-04-04 富士フイルム株式会社 撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014176056A (ja) * 2013-03-13 2014-09-22 Fujifilm Corp 撮像装置
JP2016012007A (ja) * 2014-06-27 2016-01-21 富士フイルム株式会社 画像表示装置及び画像表示方法
JP2016046773A (ja) * 2014-08-26 2016-04-04 富士フイルム株式会社 撮像装置

Also Published As

Publication number Publication date
JP2024011041A (ja) 2024-01-25

Similar Documents

Publication Publication Date Title
CN100447661C (zh) 投影显示设备
TWI419551B (zh) 固態全景影像擷取裝置
CN102124749B (zh) 立体图像显示装置
US20110025830A1 (en) Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US5602584A (en) Apparatus for producing a panoramic image using a plurality of optical systems
KR20170139521A (ko) 화상 처리 장치 및 화상 처리 시스템
JPWO2007013215A1 (ja) 画像表示装置
CN110754081B (zh) 用于对局部视场成像的设备、多孔径成像设备及提供这些设备的方法
JP5147474B2 (ja) 撮像装置及びその制御方法
WO2011014421A2 (en) Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
JP7331222B2 (ja) 光学装置及び撮像装置
JPWO2019026287A1 (ja) 撮像装置および情報処理方法
JP2012019292A (ja) 3dカメラモジュールの撮像検査装置およびその撮像検査方法、3dカメラモジュールの撮像検査制御プログラム、3dカメラモジュールの撮像補正方法、3dカメラモジュールの撮像補正制御プログラム、可読記録媒体、3dカメラモジュール、電子情報機器
CN107872659B (zh) 投影装置以及投影方法
JP2000222116A (ja) 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置
WO2024014415A1 (ja) 撮像方法、学習方法、学習データ生成装置、及びデータ構造
JP4595313B2 (ja) 撮像表示装置及び方法、画像送受信システム
TWI505708B (zh) 多鏡頭影像擷取裝置及其立體影像顯示方法
JP4424299B2 (ja) 画像処理方法、画像処理装置およびこれを用いた画像表示装置
WO2023090191A1 (ja) 撮像装置
EP3340605A1 (en) Imaging device, imaging method, program, and non-temporary recording medium
JPH10262176A (ja) 映像形成方法
JP2005174148A (ja) 撮像装置及び方法、撮像システム
JP2016048824A (ja) 追尾装置、追尾システム、及び表示装置
CN105208373B (zh) 一种基于光场压缩采样的通用集成成像记录装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23839587

Country of ref document: EP

Kind code of ref document: A1