WO2021014598A1 - 撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラム - Google Patents

撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラム Download PDF

Info

Publication number
WO2021014598A1
WO2021014598A1 PCT/JP2019/028925 JP2019028925W WO2021014598A1 WO 2021014598 A1 WO2021014598 A1 WO 2021014598A1 JP 2019028925 W JP2019028925 W JP 2019028925W WO 2021014598 A1 WO2021014598 A1 WO 2021014598A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
captured image
unit
imaging
optical system
Prior art date
Application number
PCT/JP2019/028925
Other languages
English (en)
French (fr)
Inventor
仁司 土屋
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2019/028925 priority Critical patent/WO2021014598A1/ja
Publication of WO2021014598A1 publication Critical patent/WO2021014598A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present disclosure relates to an image pickup device, an image pickup system, an image processing device, an image pickup method, an image processing method, and a program for correcting the rotation of an image due to a change in attitude around the optical axis of a fisheye optical system.
  • an electronic correction method in which the image captured by the image sensor is electronically rotated based on the detection result detected by the acceleration sensor.
  • the larger the rotation angle of the image sensor, the larger the defect in the peripheral portion of the image, and the defective region can be made invisible by trimming the defective region.
  • the larger the angle the more a trimming area for rotation is required, so that the angle of view becomes smaller and the wide-angle property is impaired, which causes a problem that the visibility is lowered.
  • the present disclosure has been made in view of the above, and even when there is no limitation on the amount of rotation correction, 360 ° correction is possible, and the rotation angle in the rotation direction of the optical axis is large, the image is displayed. It is an object of the present invention to provide an image pickup device, an image pickup system, an image processing device, an image pickup method, an image processing method and a program capable of preventing the angle from changing.
  • the imaging apparatus includes a fish-eye optical system that forms a subject image on an imaging surface by a fish-eye projection method, and the imaging surface.
  • An image pickup element that converts the video signal into a video signal by receiving the subject image and outputs the video signal as a first captured image, and a rotation direction with the optical axis of the fisheye optical system as the rotation axis.
  • the predetermined region is rotated based on the posture detection unit that detects the tilt angle, a predetermined region included in the imaging surface and having point symmetry with respect to the center of the image, and the tilt angle.
  • the image pickup apparatus includes the image cutout region in the image pickup surface when the inclination angle with respect to the predetermined region is rotated in the range of 0 ° to 360 °. The area.
  • the imaging apparatus includes a first display unit capable of displaying at least one of the first captured image, the second captured image, and the third captured image, and at least one of the third captured images.
  • An operation unit that accepts an input of an instruction signal for selecting any one of the first photographed image, the second photographed image, and the third photographed image, and an image selected in response to the instruction signal are described.
  • a first control unit to be displayed on the first display unit is further provided.
  • the imaging apparatus converts the third captured image into a central projection type image based on the inclination angle.
  • the image pickup apparatus has a diagonal angle of view narrower than the smaller of the horizontal angle of view and the vertical angle of view corresponding to the image pickup surface. Based on the focal length, the third captured image obtained by converting the second captured image into a central projected image is generated.
  • the image pickup surface has a square shape.
  • the posture detection unit further detects the horizontal direction orthogonal to the gravity vector, and the conversion unit corrects the difference between the horizontal direction and the inclination angle. As a result, the third captured image is converted into an image of the central projection method.
  • the imaging device further includes a recording unit for recording the third photographed image in the above disclosure.
  • the imaging device is capable of bidirectional communication with the terminal device in the above disclosure, and further includes a first communication unit that transmits the third captured image and the tilt angle to the terminal device. ..
  • the imaging system includes the imaging device of the above disclosure and a terminal device, and the terminal device inputs an instruction signal indicating an imaging direction including an optical axis of the fisheye optical system.
  • the operation unit that receives the operation unit, an operation signal generation unit that generates an operation signal that rotates the image pickup direction based on the tilt angle, and a second communication unit that transmits the operation signal to the image pickup device are provided.
  • the image pickup apparatus further includes an optical system drive unit that changes the image pickup direction including the optical axis of the fisheye optical system based on the instruction signal.
  • the imaging system is based on the second display unit capable of displaying the third captured image and the tilt angle transmitted from the imaging device.
  • a posture image generation unit that generates a posture image showing the posture of the image pickup device, and a second control unit that displays the posture image superimposed on the third captured image on a second display unit. Further prepare.
  • the image processing apparatus has a fish-eye optical system that forms a subject image by a fish-eye projection method on an imaging surface of a subject, and the imaging surface, and receives the subject image.
  • An image pickup element that converts the video signal into a video signal and outputs the video signal as a first captured image
  • an attitude detection unit that detects an inclination angle in the rotation direction with the optical axis of the fisheye optical system as the rotation axis.
  • An acquisition unit that acquires the first captured image and the tilt angle from the image pickup device, a predetermined region included in the image pickup surface and having point symmetry centered on the image, and the tilt angle.
  • a unit and a conversion unit that generates a third captured image obtained by converting the second captured image into a central projected image are provided.
  • the imaging method is an imaging method executed by an imaging apparatus, in which a subject image is formed on an imaging surface by a fisheye optical system by a fisheye projection image method, and the subject image is imaged.
  • a subject image is formed on an imaging surface by a fisheye optical system by a fisheye projection image method
  • the subject image is imaged.
  • the video signal is converted into a video signal
  • the video signal is output as a first captured image
  • an inclination angle in the rotation direction with the optical axis of the fisheye optical system as the rotation axis is detected, and the image is captured in the imaging surface.
  • An image cropping region is set by rotating the predetermined region based on a predetermined region that is included and has point symmetry with respect to the center of the image and the tilt angle, and the first captured image is captured.
  • a second captured image is generated by cutting out the image cropping region, and a third captured image obtained by converting the second captured image into a central projection image is generated.
  • the image processing method is an image processing method executed by an image processing apparatus, which includes a fish-eye optical system that forms a subject image on an imaging surface by a fish-eye projection method, and the above-mentioned.
  • An imaging element having an imaging surface, converting the subject image into an image signal by receiving the image, and outputting the image signal as a first captured image, and rotation with the optical axis of the fisheye optical system as the rotation axis.
  • the first captured image and the tilt angle are acquired from an image pickup device including an attitude detection unit that detects a tilt angle in a direction, and are included in the image pickup surface and have point symmetry with respect to the center of the image.
  • a second image cropping area is set by rotating the predetermined region based on the predetermined region and the tilt angle, and the image cropping region is cropped with respect to the first captured image. Is generated, and a third photographed image obtained by converting the second photographed image into a central projection image is generated.
  • the program according to the present disclosure is a program to be executed by an image pickup device having at least one or more processors including memory and hardware, and the image pickup device is used to attach a subject to an image pickup surface by a fisheye optical system.
  • a subject image by the fisheye projection image method is formed, the subject image is received and converted into a video signal, the video signal is output as a first captured image, and the optical axis of the fisheye optical system is rotated.
  • a predetermined region that is included in the imaging surface and has point symmetry with respect to the center of the image by detecting the tilt angle in the rotation direction about the axis, and the predetermined region based on the tilt angle.
  • a second captured image is generated by cutting out the image cropped area with respect to the first captured image by setting an image cropping region to be rotated and cropped, and the second captured image is converted into a central projection image.
  • the third photographed image is generated.
  • the program according to the present disclosure is a program to be executed by an image processing device including at least one or more processors including memory and hardware, and the image processing device is used to shoot a subject with an eye on an imaging surface.
  • An image pickup device that has a fish-eye optical system that forms a subject image by a shadow image method and the imaging surface, converts the subject image into a video signal by receiving the subject image, and outputs the video signal as a first captured image.
  • the first captured image and the tilt angle are acquired from an image pickup apparatus including the image pickup device including the fisheye optical system and an attitude detection unit for detecting the tilt angle in the rotation direction with the optical axis as the rotation axis, and the image pickup surface.
  • An image cropping region to be cut out by rotating the predetermined region is set based on a predetermined region included in the image and having point symmetry with respect to the center of the image and the inclination angle.
  • a second captured image is generated by cutting out the image cropping region with respect to the captured image, and a third captured image obtained by converting the second captured image into a central projection image is generated.
  • FIG. 1A is a diagram schematically showing an outline of a central projection method in a projection method of an optical system.
  • FIG. 1B is a diagram schematically showing an outline of an equidistant projection method in an optical system projection method.
  • FIG. 1C is a diagram schematically showing an outline of a stereographic projection method in a projection method of an optical system.
  • FIG. 2 is a diagram schematically showing an outline of a conversion method for converting an image of a fisheye optical system into a central projection method.
  • FIG. 3A is a diagram schematically illustrating an outline of a method for cutting out a rotated image.
  • FIG. 3B is a diagram schematically illustrating an outline of a method for cutting out a rotated image.
  • FIG. 3A is a diagram schematically illustrating an outline of a method for cutting out a rotated image.
  • FIG. 3C is a diagram schematically illustrating an outline of a method for cutting out a rotated image.
  • FIG. 4A is a diagram showing a state in which a subject image is formed on a square image sensor so that the diagonal is 213 °.
  • FIG. 4B is a diagram showing a state after the projective transformation from the state of FIG. 4A.
  • FIG. 5 is a schematic configuration diagram of the image pickup apparatus according to the first embodiment.
  • FIG. 6 is a block diagram showing a functional configuration of the image pickup apparatus according to the first embodiment.
  • FIG. 7 is a flowchart showing an outline of the processing executed by the imaging apparatus according to the first embodiment.
  • FIG. 8 is a flowchart showing an outline of the live view display process of FIG. 7.
  • FIG. 9 is a flowchart showing an outline of the moving image shooting process of FIG. 7.
  • FIG. 10 is a diagram showing a schematic configuration of an imaging system according to a second embodiment.
  • FIG. 11 is a block diagram showing a functional configuration of the imaging system according to the second embodiment.
  • FIG. 12A is a diagram showing a situation in which the optical axis of the image pickup apparatus according to the second embodiment is oriented in the horizontal direction in the pipe.
  • FIG. 12B is a diagram showing a situation in which the optical axis of the image pickup apparatus according to the second embodiment is oriented in an oblique direction in the pipe.
  • FIG. 12C is a diagram showing a situation in which the optical axis of the image pickup apparatus according to the second embodiment is oriented in the direction of gravity in the pipe.
  • FIG. 12A is a diagram showing a situation in which the optical axis of the image pickup apparatus according to the second embodiment is oriented in the horizontal direction in the pipe.
  • FIG. 12B is a diagram
  • FIG. 13 is a block diagram showing a functional configuration of the imaging system according to the third embodiment.
  • FIG. 14 is a diagram showing an example of a display image displayed by the imaging system according to the third embodiment.
  • FIG. 15 is a block diagram showing a functional configuration of the imaging system according to the fourth embodiment.
  • FIG. 1A is a diagram schematically showing an outline of a central projection method in a projection method of an optical system.
  • FIG. 1B is a diagram schematically showing an outline of an equidistant projection method in an optical system projection method.
  • FIG. 1C is a diagram schematically showing an outline of a stereographic projection method in a projection method of an optical system. Further, in FIGS. 1A to 1C, the focal length of the optical system is described as f, and the angle formed by the optical axis and the incident light is described as ⁇ .
  • the central projection method shown in FIG. 1A is a general projection method of an optical system (lens) used in an imaging apparatus, and is an imaging method that does not give a sense of discomfort to the naked eye.
  • the equidistant projection method shown in FIG. 1B and the stereographic projection method shown in FIG. 1C are so-called fish-eye optical system projection methods, which are methods for obtaining a distorted image centered on the optical axis of the fish-eye optical system. ..
  • the fisheye projection method of the fisheye optical system includes a normal projection method and an equidistant angle projection method, but in the following, the stereographic projection method and the equidistant projection method in which the compression effect of the peripheral image is small. Will be described in detail using the above two methods, and the description of other projection methods will be omitted.
  • the equidistant projection method is a projection method in which the image height is formed at a position of f ⁇ ⁇ with respect to the incident angle, and the incident angle and the image height are in a proportional relationship. Therefore, the equidistant projection method is an effective projection method for positioning and the like because the peripheral image is not compressed.
  • the stereographic projection method Next, the stereographic projection method will be described. As shown in FIG. 1C, in the stereographic projection method, an image is formed at a position where the image height is 2 f ⁇ tan ( ⁇ / 2) with respect to the incident angle.
  • the projection method of the fish-eye optical system is the only method in which the peripheral image is enlarged, and when converting to the central projection, the image quality of the peripheral image can be ensured most. For this reason, the stereographic projection method is an effective projection method for moving image shooting because it can secure the highest image quality in the periphery.
  • FIG. 2 is a diagram schematically showing an outline of a conversion method for converting an image of a fisheye optical system into a central projection method. Note that FIG. 2 describes a case of switching from the equidistant projection method to the central projection method in order to simplify the equation.
  • the focal length f c and the image height h c of the central projection method are given by the following equation (5). From the above, the coordinates (x a, y a) coordinates (x b, y b) in the case of revolve around projection scheme When the focal length f c and the focal length f e is a known value, converted The latter coordinates can be calculated by the following equations (6-1) and (6-2).
  • 3A to 3C are diagrams schematically illustrating an outline of a method for cutting out a rotated image.
  • the rectangular region indicates the image sensor IS.
  • the image sensor IS has a size with an aspect ratio of 4: 3 (17.3 mm ⁇ 13 mm). Further, a region having a circular diameter with respect to the image sensor IS indicates an image circle IC.
  • the subject image is imaged so that the diagonal angle of view is 180 °.
  • the horizontal angle of view of the image sensor IS is about 144 °
  • the vertical angle of view is about 108 °.
  • the diagonal angle of view which is the maximum angle of view, is 108 ° or less in the vertical angle of view.
  • the focal length is determined, and the angle of view in the rotation direction with the optical axis of the fisheye optical system of the image pickup device as the rotation axis is 0 ° to 360 °, and the angle of view is constant no matter how it is rotated. be able to.
  • the diagonal angle of view is 107 ° as the value obtained from the image sensor IS when the focal length of the central projection optical system is 8 mm.
  • the region TA included in the image pickup surface of the image sensor IS and indicating a predetermined region having point symmetry with respect to the center of the image indicates a region cut out by the central projection method.
  • the coordinates converted to the central projection method after rotation can be calculated by the following equations (7-1) and (7-2), where ⁇ r is the amount of rotation.
  • the ⁇ r when rotating by ⁇ 45 ° is as follows.
  • FIG. 4A is a diagram showing a state in which a subject image is formed on a square image sensor so that the diagonal is 213 °.
  • FIG. 4B is a diagram showing a state after the projective transformation from the state of FIG. 4A.
  • the square of the imaging element (sensor) IS S is minimum angle of view are the same, and the most efficient configuration in horizontal and vertical.
  • the imaging device IS S square in the case where the horizontal view angle and vertical angle has been converted to about 150 °, and the in the center projection method, when the 35mm translated at the widest angle, the focal length 6mm image equivalent Can be obtained. Therefore, as shown in FIGS. 4A and 4B, the image pickup element IS S square, even if the angle is the angle theta r inclined from the horizontal h a, is corrected distortion fisheye optical system, An image P1 that is kept horizontal can be obtained.
  • the image pickup element IS S square, even if the inclination angle of the rotation direction of the rotation axis of the optical axis of the fisheye optical system the imaging device is provided is rotated in the range of 0 ° ⁇ 360 °, the imaging surface Since it is a region included in the image P1, it is possible to obtain an image P1 that is kept horizontal.
  • FIG. 5 is a schematic configuration diagram of the image pickup apparatus according to the first embodiment.
  • the image pickup device 1 shown in FIG. 5 is a digital still camera capable of recording a moving image, and is a so-called action cam.
  • the imaging device 1 includes a main body 10, a fisheye optical system 11 arranged in the main body 10, and an operation unit 101 instructing the start of recording.
  • the imaging device 1 starts moving image shooting when the operation unit 101 is pressed by the user, and stops moving image shooting when the operation unit 101 is pressed again.
  • the image pickup device 1 can obtain an image whose posture is fixed to the posture at the start of recording even when the posture of the image pickup device 1 is significantly changed, so that the appearance is deteriorated due to the rotation of the image. Can be prevented.
  • FIG. 6 is a block diagram showing a functional configuration of the image pickup apparatus 1.
  • the image pickup device 1 includes a main body portion 10, a fisheye optical system 11, an image sensor 12, an image reading unit 13, a posture detection unit 14, a setting unit 15, and a cutting unit 16. , A conversion unit 17, an image processing unit 18, a recording unit 19, a display unit 20, and a control unit 21.
  • the main body 10 has a housing shape and houses each part inside.
  • the main body 10 has a waterproof function, and each gap is sealed.
  • the fisheye optical system 11 forms a subject image of the subject on the image pickup surface of the image pickup element 12 by the fisheye projection method. Specifically, the fisheye optical system 11 forms a subject image on the image pickup surface of the image pickup device 112 by a stereographic projection method or an equidistant projection method.
  • the fisheye optical system 11 is configured by using one or more lenses, an aperture, a shutter, and the like.
  • the stereographic projection method is used in order to give priority to the image quality at the time of recording by moving image shooting, but the present invention is not limited to this, and various projection methods described above may be used. it can.
  • the image pickup device 12 has an image pickup surface, and is a first photographed image based on the first photographed image data converted into a video signal by receiving a subject image (fisheye image) imaged by the fisheye optical system 11. (Hereinafter, simply referred to as [first captured image]) is generated.
  • the image sensor 12 generates a first captured image according to a predetermined frame rate under the control of the control unit 21.
  • the image sensor 12 is configured by using a CCD (Charge Coupled Device) sensor, a CMOS (Complementary Metal Oxide Semiconductor) sensor, or the like. Further, in the first embodiment, the image pickup device 12 has a square shape of the image pickup surface.
  • the shape of the image pickup surface of the image pickup device 12 will be described as a square, but the shape is not limited to this, and is appropriately determined by, for example, the sensor size of the image pickup device 12 and the focal length of the fisheye optical system 11. It can be changed, for example, the shape of the image pickup surface may be rectangular, or the area or shape of the image pickup surface may be changed under the control of the control unit 21 so that multi-aspect can be performed according to the shooting mode. May be good.
  • the image reading unit 13 sequentially reads out the first captured image generated by the image sensor 12 and outputs it to the cutting unit 16.
  • the image reading unit 13 is configured by using a column circuit, a noise removing circuit, an A / D conversion circuit, a vertical scanning circuit, a horizontal scanning circuit, and the like.
  • the posture detection unit 14 detects the inclination angle in the rotation direction with the optical axis L1 of the fisheye optical system 11 as the rotation axis, and outputs the detection result to the setting unit 15 and the control unit 21.
  • the posture detection unit 14 is configured by using a gyro sensor, an acceleration sensor, or the like.
  • the setting unit 15 is included in the image pickup surface of the image sensor 12, and is a predetermined area based on a predetermined area having point symmetry centered on the image and an inclination angle detected by the posture detection unit 14. Is rotated to set the image cutout area to be cut out by the cutout unit 16.
  • the image cropping region is a region included in the image pickup surface of the image pickup device 12 when the tilt angle with respect to a predetermined region is rotated in the range of 0 ° to 360 °.
  • the predetermined region is a region TA that is included in the image pickup surface of the image pickup device 12 and indicates a predetermined region that is point-symmetrical with respect to the center of the image (see FIGS. 3A to 3C).
  • the cutout unit 16 generates a second shot image by cutting out the image cutout area set by the setting unit 15 from the first shot image, and outputs the second shot image to the conversion unit 17.
  • the conversion unit 17 generates a third captured image obtained by converting the second captured image generated by the cutout unit 16 into a central projection image based on the inclination angle detected by the posture detecting unit 14, and the generated third image is generated. Is output to the image processing unit 18.
  • the conversion unit 17 is a focal length and orientation detection unit in which the diagonal angle of view is narrower than the smaller of the horizontal angle of view and the vertical angle of view corresponding to the image pickup surface of the image sensor 12. Based on the tilt angle detected by 14, a third captured image obtained by converting the second captured image into a central projection image is generated.
  • the image processing unit 18 performs various image processing on the third captured image input from the conversion unit 17 and outputs it to the recording unit 19 or the display unit 20.
  • various image processes include demosaiking processing, white balance processing, noise reduction processing, compression processing, and the like.
  • the compression process when the third photographed image is a still image, for example, it is in JPEG (Joint Photographic Experts Group) format, and when the third photographed image is a moving image, it is in, for example, mpeg4 format.
  • the image processing unit 18, setting unit 15, cutting unit 16, and conversion unit 17 include, for example, a memory and hardware such as an FPGA (Field Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), and a GPU (Graphics Processing Unit). It is configured using a processor having.
  • the recording unit 19 is configured by using a volatile memory, a non-volatile memory, and the like, and records a third captured image, a still image, and various programs executed by the image pickup device 1 input from the image processing unit 18.
  • the recording unit 19 may be configured by using a memory card that can be attached to and detached from the main body 10.
  • the display unit 20 displays a display image based on the third captured image input from the image processing unit 18.
  • the display unit 20 is configured by using a liquid crystal, an organic EL (Electro Luminescence), or the like.
  • the display unit 20 displays various information related to the image pickup apparatus 1.
  • the control unit 21 is configured by using a memory and a processor having hardware such as a CPU (Central Processing Unit).
  • the control unit 21 controls each unit constituting the image pickup apparatus 1.
  • FIG. 7 is a flowchart showing an outline of the process executed by the image pickup apparatus 1.
  • the image pickup apparatus 1 executes a live view display process of displaying the live view image as a display image on the display unit 20 (step S1). After step S1, the image pickup apparatus 1 shifts to step S2 described later.
  • FIG. 8 is a flowchart showing an outline of the live view display process of FIG. 7.
  • the image sensor 12 generates a first captured image obtained by converting the subject image imaged by the fisheye optical system 11 into a video signal (step S10).
  • the image reading unit 13 reads the first captured image from the image sensor 12.
  • the posture detection unit 14 detects the inclination angle in the rotation direction with the optical axis L1 of the fisheye optical system 11 as the rotation axis (step S11).
  • the setting unit 15 is included in the image pickup surface of the image pickup device 12, and is based on a predetermined region having point symmetry centered on the image and an inclination angle detected by the posture detection unit 14. An image cropping region to be cropped by rotating a predetermined region is set (step S12).
  • the cutting unit 16 generates a second captured image by cutting out an image clipping region set by the setting unit 15 with respect to the first captured image read from the image sensor 12 by the image reading unit 13. (Step S13).
  • the conversion unit 17 After that, the conversion unit 17 generates a third captured image obtained by converting the second captured image generated by the cutout unit 16 into a central projection image (step S14).
  • control unit 21 causes the image processing unit 18 to display the display image obtained by performing the image processing on the third captured image generated by the conversion unit 17 on the display unit 20 (step S15).
  • the image pickup apparatus 1 returns to the main routine of FIG. 7 and proceeds to step S2.
  • step S2 When the operation unit 101 is pressed in step S2 (step S2: Yes), the image pickup apparatus 1 shifts to step S3 described later. On the other hand, when the operation unit 101 is not pressed (step S2: No), the image pickup apparatus 1 shifts to step S5 described later.
  • step S3 the image pickup apparatus 1 executes a moving image shooting process for sequentially recording the images sequentially shot in the recording unit 19 in chronological order. After step S3, the image pickup apparatus 1 shifts to step S4 described later.
  • FIG. 9 is a flowchart showing an outline of the moving image shooting process of FIG. 7.
  • the posture detection unit 14 detects the inclination angle in the rotation direction about the optical axis L1 of the fisheye optical system 11 at the time when the operation unit 101 is pressed (step S31). ..
  • the operation unit 101 is pressed (immediately after)
  • the inclination angle at the time of pressing is detected and stored in the memory (recording unit 19).
  • step S4 No in FIG. 7
  • the inclination angle when generating the first shot image is generated. Is detected.
  • the image sensor 12 generates a first captured image obtained by converting the subject image imaged by the fisheye optical system 11 into a video signal (step S32).
  • the image reading unit 13 reads the first captured image from the image sensor 12.
  • the setting unit 15 includes a predetermined area included in the image pickup surface of the image sensor 12 and having point symmetry with respect to the center of the image, an inclination angle detected by the posture detection unit 14, and a memory (recording unit). Based on the tilt angle at the time when the operation unit 101 is pressed, which is stored in 19), an image cutout area to be cut out by rotating a predetermined area is set (step S33).
  • the inclination angle at the time when the operation unit 101 is pressed, which is stored in the memory (recording unit 19) is used as a reference. That is, the setting unit 15 subtracts the tilt angle (previous tilt angle) stored in the memory (recording unit 19) from the tilt angle (latest tilt angle) detected when generating the first captured image. Treated as a new tilt angle.
  • the cutting unit 16 generates a second captured image by cutting out an image clipping region set by the setting unit 15 with respect to the first captured image read from the image sensor 12 by the image reading unit 13. (Step S34).
  • the conversion unit 17 After that, the conversion unit 17 generates a third captured image obtained by converting the second captured image generated by the cutout unit 16 into a central projection image (step S35).
  • control unit 21 records the display image in which the image processing unit 18 has subjected the image processing to the third captured image generated by the conversion unit 17 in the recording unit 19 and displays it on the display unit 20 (. Step S36). After step S36, the image pickup apparatus 1 returns to the main routine of FIG. 7 and proceeds to step S4.
  • step S4 When the operation unit 101 is pressed in step S4 (step S4: Yes), the image pickup apparatus 1 shifts to step S5 described later. On the other hand, when the operation unit 101 is not pressed (step S4: No), the image pickup apparatus 1 returns to the above-mentioned step S3.
  • step S5 when a power switch (not shown) is operated and an end signal for ending shooting is input (step S5: Yes), the imaging device 1 ends this process. On the other hand, when the power switch (not shown) is not operated and the end signal for ending the shooting is not input (step S5: No), the image pickup apparatus 1 returns to the above-mentioned step S1.
  • the setting unit 15 is included in the image pickup surface of the image pickup element 12, and is detected by the posture detection unit 14 and a predetermined region having point symmetry centered on the image.
  • An image cutout area is set by rotating a predetermined area based on the inclination angle in the rotation direction with the optical axis of the fisheye optical system 11 as the rotation axis, and the cutout portion 16 refers to the first captured image.
  • a second captured image is generated by cutting out the image cropping area, and the conversion unit 17 generates a third captured image obtained by converting the second captured image into a central projection image, thereby starting recording of moving image shooting.
  • the horizontal angle of view and the vertical angle of view become equal, so that the utilization efficiency of the image pickup surface can be maximized.
  • the periphery of the subject image is enlarged, so that the enlargement ratio of the periphery of the subject image is reduced when converted to the central projection method. Therefore, it is possible to prevent deterioration of the peripheral image quality of the subject image.
  • the main body 10 and the fish eye optical system 11 are integrally formed, but for example, the fish eye optical system 11 may be detachable from the main body 10.
  • the display unit 20 displays a display image based on the third captured image, but the display unit 20 is not limited to this, and at least the first captured image, the second captured image, is displayed on the display unit 20. Either one of the captured image of the above and the third captured image may be displayed.
  • the control unit 21 is an image selected according to a selection signal for selecting any one of the first captured image, the second captured image, and the third captured image received by the operation unit 101. Is displayed on the display unit 20. This makes it possible to display an image in a state desired by the user.
  • FIG. 10 is a diagram showing a schematic configuration of an imaging system according to a second embodiment.
  • the imaging system 100 shown in FIG. 10 is an industrial endoscope system used for inspection of pipes and the like.
  • a camera head arranged at the tip of the cable is inserted into the pipe as described later, and the inner wall at the back of the pipe is observed to inspect the position and degree of damage to the pipe. ..
  • the conventional industrial endoscope system cannot control the vertical position of the camera head body at the tip of the cable, so that there is a problem that the vertical direction of the observation image captured by the camera head cannot be determined. is there.
  • the image pickup system 100 includes an image pickup device 1A that functions as a camera head, a terminal device 2A for operating the image pickup device 1A, a cable 3A that connects the image pickup device 1A and the terminal device 2A in a bidirectional manner, and a cable.
  • a reel 4A for holding the 3A so that it can be wound up is provided.
  • the image pickup device 1A includes a lens unit 10A and a main body 101A.
  • the image pickup apparatus 1A is configured so that the lens unit 10A can be bent vertically and horizontally with respect to the main body 101A.
  • the terminal device 2A includes a display unit 31, an operation lever 32, and a recording switch 33.
  • the display unit 31 displays the display image P10 captured and generated by the image pickup apparatus 1A in real time.
  • the operation lever 32 is configured by using, for example, a joystick or the like, and receives an input of an operation signal for operating the direction of the optical axis L1 of the lens unit 10A of the image pickup apparatus 1A.
  • the operation lever 32 is an operation signal that bends the optical axis L1 of the lens unit 10A so that the field of view of the display image displayed on the display unit 31 moves upward when the user tilts the lever unit 321 upward. Accepts input.
  • the lever portion 321 is configured to be tiltable 360 ° and receives an input of an operation signal for moving the field of view to the optical axis L1 (observation direction) of the lens unit 10A in the tilted direction by the user.
  • the recording switch 33 receives an input of an instruction signal instructing still image shooting.
  • the operation lever 32 functions as an operation unit.
  • the reel 4A is held so that the cable 3A can be wound up.
  • the reel 4A moves the image pickup apparatus 1A in the pipe by appropriately sending out the cable 3A according to the user operation.
  • the imaging system 100 configured in this way, when the user confirms the piping on the display image P10 in the piping displayed by the display unit 31, when a scratch is found, the user operates the operation lever 32. Then, the optical axis L1 of the lens unit 10A is changed. After that, the image pickup system 100 is operated by the user using the operation lever 32 so that the scratch is at the center of the observation field of view. Then, when the user operates the recording switch 33, the imaging system 100 records the problem portion including scratches on a recording medium or the like by taking a still image.
  • FIG. 11 is a block diagram showing a functional configuration of the imaging system 100.
  • the imaging system 100 shown in FIG. 11 includes an imaging device 1A, a terminal device 2A, and a cable 3A.
  • the image pickup apparatus 1A includes a lens unit 10A and a main body 101A.
  • the lens unit 10A includes a fish-eye optical system 11A and an image sensor 12.
  • the lens unit 10A is configured to be bendable vertically and horizontally with respect to the main body 101A.
  • the fisheye optical system 11A is configured by using one or more lenses, an aperture, a shutter, and the like.
  • an equidistant projection method advantageous for positioning or the like is used for the purpose of inspection will be described, but the present invention is not limited to this, and various projection methods described above may be used. it can.
  • the main body 101A includes a video reading unit 13, a posture detection unit 14A, a setting unit 15, a cutting unit 16, a conversion unit 17, a first communication unit 22, an optical system drive unit 23, and a first unit. It includes a control unit 24.
  • the attitude detection unit 14A detects the accelerations in the horizontal direction and the horizontal direction orthogonal to the gravity vector of the image pickup device 1A, and also detects the rotation of the optical axis L1 of the fisheye optical system 11 around the optical axis. Specifically, the posture detection unit 14A detects the accelerations of the image pickup device 1A in the gravitational direction and the horizontal direction, and detects the rotation of the optical axis L1 of the fisheye optical system 11 around the optical axis.
  • the attitude detection unit 14A is configured by using a three-axis acceleration sensor, a gyro sensor that detects the rotation of the optical axis L1 of the fisheye optical system 11 around the optical axis, and the like.
  • the attitude detection unit 14A detects the change in rotation not only by the acceleration sensor but also by the gyro sensor, and when the reliability of the change in gravity due to acceleration is low, the value specified from the gravity at the time of the gyro sensor. May be detected as the attitude information of the imaging device 1A.
  • the first communication unit 22 transmits various information input from the terminal device 2A via the cable 3A to the first control unit 24, and transmits various information input from the first control unit 24 to the terminal. It transmits to the device 2A.
  • the first communication unit 22 transmits the third captured image (similar to the first embodiment) converted by the conversion unit 17 to the terminal device 2A.
  • the first communication unit 22 is configured by using a predetermined communication module.
  • the optical system drive unit 23 bends the optical axis L1 of the lens unit 10A in a direction that allows it to move up, down, left, and right in response to an operation signal input from the terminal device 2A.
  • the optical system drive unit 23 is composed of, for example, a plurality of curved pieces, a motor, or the like.
  • the first control unit 24 controls each unit of the image pickup apparatus 1A. In addition, the first control unit 24 performs control according to various operation signals input from the terminal device 2A via the first communication unit 22. For example, the first control unit 24 bends the optical axis L1 of the lens unit 10A in the direction corresponding to the operation signal by driving the optical system drive unit 23 in response to the operation signal input from the terminal device 2A. ..
  • the first control unit 24 is configured by using a memory and a processor having hardware such as an ASIC, an FPGA, and a CPU.
  • the terminal device 2A includes a display unit 31, an operation lever 32, a recording switch 33, a second communication unit 34, a video output unit 35, a recording unit 36, an operation instruction generation unit 37, and a second control.
  • a unit 38 is provided.
  • the second communication unit 34 transmits the operation signal input from the operation instruction generation unit 37 and various information input from the second control unit 38 to the first communication unit 22 via the cable 3A. .. Further, the second communication unit 34 outputs various information transmitted from the first communication unit 22, for example, a third captured image to the video output unit 35 under the control of the second control unit 38. ..
  • the second communication unit 34 is configured by using a predetermined communication module.
  • the video output unit 35 performs various image processing on the third captured image from the image pickup device 1 input via the second communication unit 34 and outputs the image to the recording unit 36 or the display unit 31. ..
  • various image processes include demosaiking processing, white balance processing, noise reduction processing, compression processing, and the like.
  • the display image displayed by the display unit 31 is horizontally corrected so that the weight direction is downward in the image pickup apparatus 1, so that the top and bottom of the image match the display, so that the position of the scratch is easy. Can be specified in.
  • the video output unit 35 is configured by using, for example, a memory and a processor having hardware such as a GPU or FPGA.
  • the recording unit 36 is configured by using a volatile memory, a non-volatile memory, and the like, and records a third captured image, a still image, and various programs executed by the imaging device 1 input from the video output unit 35. Further, the recording unit 36 records the image input from the video output unit 35 when an instruction signal instructing recording is input from the recording switch 33 under the control of the second control unit 38.
  • the recording unit 36 may be configured by using a memory card that can be attached to and detached from the terminal device 2A. Further, the recording unit 36 records a third captured image transmitted from the first communication unit 22 and output from the second communication unit 34 under the control of the second control unit 38. May be good.
  • the operation instruction generation unit 37 generates an operation signal instructing the bending direction of the optical axis L1 of the imaging device 1 in response to the operation of the operation lever 32, and outputs this operation signal to the second communication unit 34.
  • the operation instruction generation unit 37 detects, for example, the inclination angle and bending direction of the lever unit 321 of the operation lever 32, and the posture detection unit 14 input via the first communication unit 22 and the cable 3A. Based on the detected detection result, an operation signal in which the optical axis L1 of the image pickup apparatus 1 bends in the direction in which the operation direction is rotated or reversed is generated, and this operation signal is output to the second communication unit 34.
  • the second control unit 38 controls each unit of the terminal device 2A.
  • the second control unit 38 is configured by using a memory and a processor having hardware such as a CPU.
  • FIG. 12A is a diagram showing a situation in which the optical axis L1 of the image pickup apparatus 1A is oriented in the horizontal direction in the pipe.
  • FIG. 12B is a diagram showing a situation in which the optical axis L1 of the image pickup apparatus 1A is oriented in an oblique direction in the pipe.
  • FIG. 12C is a diagram showing a situation in which the optical axis L1 of the image pickup apparatus 1A is oriented in the direction of gravity in the pipe.
  • the projection vector of the gravity vector with respect to the imaging surface R100 is The display unit 31 is rotated so that the indicated direction is below the display image displayed by the display unit 31.
  • the conversion unit 17 corrects the difference between the horizontal direction orthogonal to the gravity vector detected by the attitude detection unit 14A and the inclination angle in the rotation direction with the optical axis L1 of the fisheye optical system 11A as the rotation axis. This converts the second captured image into a third captured image which is a central projection image.
  • the second control unit 38 displays the third captured image received from the image pickup device 1A via the second communication unit 34 in the direction indicated by the projection vector of the gravity vector with respect to the image pickup surface R100. Is rotated so as to be below the display image to be displayed on the display unit 31.
  • the conversion unit 17 corrects the rotation around the optical axis L1 from the time when the optical axis L1 of the image pickup apparatus 1A is switched in the gravity direction so as to maintain the horizontal position immediately before the front is switched in the gravity direction. Generate a captured image of. Specifically, the conversion unit 17 corrects the rotation around the optical axis L1 based on the detection result of the attitude detection unit 14A so as to maintain the horizontal position immediately before the front switches to the gravitational direction. To generate.
  • the second control unit 38 causes the display unit 31 to display the third captured image received from the image pickup apparatus 1A via the second communication unit 34.
  • the image pickup system 100 can acquire an image without rotation even when the field of view region of the image pickup apparatus 1A is switched in the vertical direction.
  • the second control unit 38 may superimpose information indicating the direction and direction of the optical axis L1 of the imaging device 1 on the display image displayed by the display unit 31 and display the information on the display unit 31. As a result, the user can easily recognize the position and orientation of the image pickup apparatus 1A in the pipe.
  • the vertical direction of the display image displayed by the display unit 31 is always the vertical direction even when it is difficult to determine the vertical direction of the observation field of view of the image pickup apparatus 1A by piping or the like. Since it is displayed in a held state, the visibility of the inspection can be improved.
  • the operability at the time of inspection can be improved.
  • the image height of the subject image and the angle of the fish-eye optical system 11A with respect to the optical axis L1 are in a proportional relationship, and the measurement by an image is performed. The calculation can be simplified when doing so.
  • the conversion unit corrects the difference between the horizontal direction detected by the attitude detection unit 14A and the inclination angle in the rotation direction with the optical axis L1 of the fisheye optical system 11A as the rotation axis. Since the second captured image is converted into the third captured image which is the central projection image including the above, it is possible to always display the displayed image in which the top and bottom of the displayed image match.
  • the user since the display image and the posture information corrected for the inclination of the image pickup device 1A are transmitted to the terminal device 2A, the user can operate the image pickup device 1A while checking the stable display image remotely. It can be carried out.
  • the operation instruction generation unit 37 generates an operation signal in which the instruction signal of the operation lever 32 is rotated in the imaging direction in combination with the rotation of the display image displayed by the display unit 31. Since the image pickup direction of the image pickup apparatus 1A rotates in the same direction as the operation direction instruction, the user can easily perform the operation.
  • the second embodiment is an industrial endoscope system, it may be applied to a medical endoscope system.
  • FIG. 13 is a block diagram showing a functional configuration of the imaging system according to the third embodiment.
  • the image pickup system 100B shown in FIG. 13 includes an in-vehicle camera such as an airplane or a car, an image pickup device 1B installed at a predetermined position, and a terminal device 2B operated by wireless communication with the image pickup device 1B.
  • the image pickup device 1B includes a fisheye optical system 11, an image pickup element 12, an attitude detection unit 14B, a setting unit 15, a cutting unit 16, a conversion unit 17, a first communication unit 22B, and a first control.
  • a unit 24 is provided.
  • the posture detection unit 14B detects the accelerations of the image pickup device 1B in the gravitational direction and the horizontal direction, and also detects the rotation of the optical axis L1 of the fisheye optical system 11 around the optical axis.
  • the attitude detection unit 14B is configured by using a three-axis acceleration sensor, a gyro sensor that detects the rotation of the optical axis L1 of the fisheye optical system 11 around the optical axis, and the like.
  • the gyro sensor detects the rotation change as well as the acceleration sensor to detect the gravity vector, and the gravity change due to the acceleration. If the reliability of the gyro sensor is low, the amount of rotation from the time point of the gyro sensor may be detected as the attitude information of the image pickup apparatus 1B.
  • the first communication unit 22B transmits various information to the terminal device 2B according to a predetermined wireless communication standard under the control of the first control unit 24.
  • the first communication unit 22B is configured by using a wireless communication module.
  • the terminal device 2B includes a display unit 31, a second communication unit 34B, a video output unit 35, a recording unit 36, a second control unit 38, and a posture image generation unit 39.
  • the posture image generation unit 39 generates a posture image based on the posture information of the imaging device 1B input from the first communication unit 22B, and outputs this posture image to the video output unit 35.
  • the video output unit 35 generates an image in which the posture image input from the posture image generation unit 39 is superimposed on the third captured image from the image pickup device 1B, and outputs the image to the display unit 31 or the recording unit 36. ..
  • the imaging system 100B configured in this way causes the display unit 31 to display a display image in which the posture image is superimposed on the third captured image.
  • the image pickup system 100B has an airplane shape as a posture image, and the shape P101 of the airplane tilted according to the posture of the image pickup device 1B is a third captured image P100. Is superimposed on the display unit 31 and displayed on the display unit 31.
  • the imaging system 100B may superimpose the shape P101 of the airplane, which is a posture image, in a semi-transparent manner, or may superimpose it by a dotted line.
  • the display unit 31 displays the moving body on which the image pickup device 1B is mounted, regardless of how the moving body moves (for example, when the moving body is an airplane, it flies by cutting).
  • the displayed image does not rotate, and the posture of the moving body can be grasped intuitively.
  • the user can prevent image sickness and deterioration of appearance, so that operability like a game is provided. be able to.
  • the display image does not rotate, the visibility is not impaired and the attitude of the aircraft can be grasped, so that the operability can be improved even when remote control is performed.
  • FIG. 15 is a block diagram showing a functional configuration of the imaging system according to the fourth embodiment.
  • the image pickup system 100C shown in FIG. 15 includes an image pickup device 1C having an image pickup function and a communication function, and a terminal device 2C that functions as a tablet terminal such as a smartphone.
  • the image pickup device 1C and the terminal device 2C communicate in both directions according to a predetermined wireless communication standard.
  • the predetermined wireless communication standards are, for example, Wi-Fi (registered trademark) and Bluetooth (registered trademark).
  • the imaging system 100C transmits the first captured image generated by the imaging device 1C to the terminal device 2C, converts the first captured image into a third captured image in the terminal device 2C, and displays the image.
  • the imaging device 1C omits the setting unit 15, the cutting unit 16 and the conversion unit 17 from the configuration of the imaging device 1B according to the third embodiment described above, and the other configurations are the same.
  • the terminal device 2C includes a setting unit 15, a cutting unit 16, and a conversion unit 17 in addition to the configuration of the terminal device 2B according to the second embodiment described above. That is, each of the setting unit 15, the cutting unit 16, and the conversion unit 17 is executed by reading the program in the application recorded in the recording unit 36.
  • the second communication unit 34 functions as an acquisition unit.
  • the terminal device 2C functions as an image processing device.
  • the terminal device 2C since the terminal device 2C has a main function, it is possible to provide a relatively inexpensive one.
  • the above-mentioned "part” can be read as “means” or "circuit".
  • the control unit can be read as a control means or a control circuit.
  • the program to be executed by any one of the imaging apparatus, imaging system and image processing apparatus according to the first to fourth embodiments is a CD-ROM or a flexible disk (file data in an installable format or an executable format). It is provided by being recorded on a computer-readable recording medium such as an FD), CD-R, DVD (Digital Versatile Disk), USB medium, or flash memory.
  • the program to be executed by any one of the imaging device, the imaging system and the image processing device according to the first to fourth embodiments is stored on a computer connected to a network such as the Internet and downloaded via the network. May be configured to provide by. Further, a program to be executed by any one of the imaging device, the imaging system and the image processing device according to the present disclosure may be provided or distributed via a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

回転補正量に制限がなく、360°補正が可能であり、かつ、光軸の回転方向における回転角が大きい場合であっても、画角が変化することを防止することができる撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラムを提供する。 撮像装置1は、魚眼光学系11の光軸L1を回転軸とする回転方向の傾斜角を検出する姿勢検出部24と、撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、傾斜角と、に基づいて、所定の領域を回転させて切り出す画像切り出し領域を設定する設定部15と、撮像素子12が生成した第1の撮影画像に対して、画像切り出し領域を切り出すことによって第2の撮影画像を生成する切り出し部16と、第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する変換部17と、を備える。

Description

撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラム
 本開示は、魚眼光学系の光軸周りの姿勢変化による画像の回転を補正する撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラムに関する。
 近年、撮像装置においては、手ぶれ補正の高機能化に伴い、ヨー方向およびピッチ方向の回転により生じるぶれを補正するだけでなく、光学系の光軸周りの回転に伴う回転ぶれの補正を行っている。このような撮像装置では、水平を検出し、常に撮影画角が水平となるように回転補正を行う技術が知られている(例えば特許文献1参照)。この技術によれば、加速度センサが検出した光軸に垂直な第1方向の第1重力加速度成分の絶対値と光軸と第1方向に垂直な第2重力加速度成分の絶対値との大小関係に基づいて、撮像素子を含む撮像装置の重力方向と垂直な水平面に対する光軸周りの傾き角度を算出し、この傾き角度に基づく傾き補正処理のため、撮像素子をレンズの光軸に垂直な平面上で回転を含めた移動が可能な可動部の移動制御を行う。
 また、別の回転補正としては、加速度センサが検出した検出結果に基づいて、撮像素子によって撮影された画像を電子的に回転させることによって補正する電子補正方法が知られている。
特許第5439733号公報
 しかしながら、上述した特許文献1では、撮像素子を可動部によって物理的に回転させることで、回転補正を行っているが、回転できる回転角に制限があり、決められた回転角以上に補正を行うことができないという問題点があった。
 また、上述した電子補正方法では、撮像素子の回転角が大きくなるほど、画像周辺部の欠損が大きくなるうえ、欠損した領域をトリミング処理で切り取ることによって欠損領域を見えなくすることができるが、回転角が大きいほど回転のためのトリミング領域が必要となることで、画角が小さくなり、広角性が損なわれることによって、視認性が低下するという問題点があった。
 本開示は、上記に鑑みてなされたものであって、回転補正量に制限がなく、360°補正が可能であり、かつ、光軸の回転方向における回転角が大きい場合であっても、画角が変化することを防止することができる撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本開示に係る撮像装置は、被写体を撮像面に対して魚眼射影像方式による被写体像を結像する魚眼光学系と、前記撮像面を有し、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力する撮像素子と、前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出する姿勢検出部と、前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定する設定部と、前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成する切り出し部と、前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する変換部と、を備える。
 また、本開示に係る撮像装置は、上記開示において、前記画像切り出し領域は、前記所定の領域に対する前記傾斜角が0°~360°の範囲で回転させた場合に、前記撮像面内に内包する領域である。
 また、本開示に係る撮像装置は、上記開示において、少なくとも前記第1の撮影画像、前記第2の撮影画像および前記第3の撮影画像の1つを表示可能な第1の表示部と、少なくとも前記第1の撮影画像、前記第2の撮影画像および前記第3の撮影画像のいずれか1つを選択する指示信号の入力を受け付ける操作部と、前記指示信号に応じて選択された画像を前記第1の表示部に表示させる第1の制御部と、をさらに備える。
 また、本開示に係る撮像装置は、上記開示において、前記変換部は、前記傾斜角に基づいて、前記第3の撮影画像を中心射影方式の画像に変換する。
 また、本開示に係る撮像装置は、上記開示において、前記変換部は、前記撮像面に対応する水平画角および垂直画角のうちの小さい方の画角よりも対角の画角が狭くなる焦点距離に基づいて、前記第2の撮影画像を中心射影像に変換した前記第3の撮影画像を生成する。
 また、本開示に係る撮像装置は、上記開示において、前記撮像面は、形状が正方形をなす。
 また、本開示に係る撮像装置は、上記開示において、前記姿勢検出部は、重力ベクトルと直交する水平方向をさらに検出し、前記変換部は、前記水平方向と前記傾斜角との差を補正することによって前記第3の撮影画像を中心射影方式の画像に変換する。
 また、本開示に係る撮像装置は、上記開示において、前記第3の撮影画像を記録する記録部をさらに備える。
 また、本開示に係る撮像装置は、上記開示において、端末装置と双方向に通信可能であり、該端末装置に前記第3の撮影画像および前記傾斜角を送信する第1の通信部をさらに備える。
 また、本開示に係る撮像システムは、上記開示の撮像装置と、記端末装置と、を備え、前記端末装置は、前記魚眼光学系の光軸を含む撮像方向を指示する指示信号の入力を受け付ける操作部と、前記傾斜角に基づいて、前記撮像方向を回転した操作信号を生成する操作信号生成部と、前記操作信号を前記撮像装置へ送信する第2の通信部と、を備え、前記撮像装置は、前記指示信号に基づいて、前記魚眼光学系の光軸を含む撮像方向を変更する光学系駆動部をさらに備える。
 また、本開示に係る撮像システムは、上記開示において、前記端末装置は、前記第3の撮影画像を表示可能な第2の表示部と、前記撮像装置から送信された前記傾斜角に基づいて、前記撮像装置の姿勢を示す姿勢画像を生成する姿勢画像生成部と、前記第3の撮影画像に前記姿勢画像を重畳して表示する第2の表示部に表示させる第2の制御部と、をさらに備える。
 また、本開示に係る画像処理装置は、被写体を撮像面に対して魚眼射影像方式による被写体像を結像する魚眼光学系と、前記撮像面を有し、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力する撮像素子と、前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出する姿勢検出部と、を備える撮像装置から前記第1の撮影画像および前記傾斜角を取得する取得部と、前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定する設定部と、前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成する切り出し部と、前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する変換部と、を備える。
 また、本開示に係る撮像方法は、撮像装置が実行する撮像方法であって、被写体を魚眼光学系によって撮像面に対して魚眼射影像方式による被写体像を結像し、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力し、前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出し、前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定し、前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成し、前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する。
 また、本開示に係る画像処理方法は、画像処理装置が実行する画像処理方法であって、被写体を撮像面に対して魚眼射影像方式による被写体像を結像する魚眼光学系と、前記撮像面を有し、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力する撮像素子と、前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出する姿勢検出部と、を備える撮像装置から前記第1の撮影画像および前記傾斜角を取得し、前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定し、前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成し、前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する。
 また、本開示に係るプログラムは、メモリおよびハードウェアからなる少なくとも1つ以上のプロセッサを備える撮像装置に実行させるプログラムであって、前記撮像装置に、被写体を魚眼光学系によって撮像面に対して魚眼射影像方式による被写体像を結像させ、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力させ、前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出させ、前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定させ、前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成させ、前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成させる。
 また、本開示に係るプログラムは、メモリおよびハードウェアからなる少なくとも1つ以上のプロセッサを備える画像処理装置に実行させるプログラムであって、前記画像処理装置に、被写体を撮像面に対して魚眼射影像方式による被写体像を結像する魚眼光学系と、前記撮像面を有し、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力する撮像素子と、前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出する姿勢検出部と、を備える撮像装置から前記第1の撮影画像および前記傾斜角を取得させ、前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定させ、前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成させ、前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成させる。
 本開示によれば、回転補正量に制限がなく、360°補正が可能であり、かつ、光軸の回転方向における回転角が大きい場合であっても、画角が変化することを防止することができるという効果を奏する。
図1Aは、光学系の射影方式における中心射影方式の概要を模式的に示す図である。 図1Bは、光学系の射影方式における等距離射影方式の概要を模式的に示す図である。 図1Cは、光学系の射影方式における立体射影方式の概要を模式的に示す図である。 図2は、魚眼光学系の像を中心射影方式に変換する変換方法の概要を模式的に示す図である。 図3Aは、回転した画像の切り出し方法の概要を模式的に説明する図である。 図3Bは、回転した画像の切り出し方法の概要を模式的に説明する図である。 図3Cは、回転した画像の切り出し方法の概要を模式的に説明する図である。 図4Aは、正方形の撮像素子に対角が213°となるように被写体像が結像した状態を示す図である。 図4Bは、図4Aの状態から射影変換した後の状態を示す図である。 図5は、実施の形態1に係る撮像装置の概略構成図である。 図6は、実施の形態1に係る撮像装置の機能構成を示すブロック図である。 図7は、実施の形態1に係る撮像装置が実行する処理の概要を示すフローチャートである。 図8は、図7のライブビュー表示処理の概要を示すフローチャートである。 図9は、図7の動画撮影処理の概要を示すフローチャートである。 図10は、実施の形態2に係る撮像システムの概略構成を示す図である。 図11は、実施の形態2に係る撮像システムの機能構成を示すブロック図である。 図12Aは、実施の形態2に係る撮像装置の光軸が配管内で水平方向を向いている状況を示す図である。 図12Bは、実施の形態2に係る撮像装置の光軸が配管内で斜め方向を向いている状況を示す図である。 図12Cは、実施の形態2に係る撮像装置の光軸が配管内で重力方向を向いている状況を示す図である。 図13は、実施の形態3に係る撮像システムの機能構成を示すブロック図である。 図14は、実施の形態3に係る撮像システムが表示する表示画像の一例を示す図である。 図15は、実施の形態4に係る撮像システムの機能構成を示すブロック図である。
 以下、本開示を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本開示が限定されるものでない。また、以下の説明において参照する各図は、本開示の内容を理解でき得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎない。即ち、本開示は、各図で例示された形状、大きさおよび位置関係のみに限定されるものでない。さらに、以下の説明では、魚眼光学系を備えた撮像装置を例に説明するが、撮像装置以外にも、携帯電話、アクションカム、カムコーダ、撮影機能付きICレコーダ、ビデオマイクロスコープや生物顕微鏡等の顕微鏡、工業用または医療用の内視鏡、タブレット型端末装置に適用することができる。もちろん、アクセサリ等のコンバートレンズとして魚眼光学系を備える装置であっても適用することができる。
 〔光学系の射影方式の原理〕
 まず、本開示における光学系の射影方式の原理について説明する。図1Aは、光学系の射影方式における中心射影方式の概要を模式的に示す図である。図1Bは、光学系の射影方式における等距離射影方式の概要を模式的に示す図である。図1Cは、光学系の射影方式における立体射影方式の概要を模式的に示す図である。また、図1A~図1Cにおいて、光学系の焦点距離をf、入射角であって光軸と入射光とがなす角をθとして記載する。
 図1Aに示す中心射影方式は、撮像装置において用いられている光学系(レンズ)の一般的な射影方式であり、目で見たまま違和感のない結像方法である。また、図1Bに示す等距離射影方式および図1Cに示す立体射影方式は、所謂、魚眼光学系の射影方式であり、魚眼光学系の光軸を中心として歪んだ画像を得る方法である。なお、魚眼光学系の魚眼射影像方式には、正射影方式および等立体角射影方式等が含まれるが、以下においては、周辺像の圧縮効果が小さい、立体射影方式および等距離射影方式の2つを用いて詳細に説明し、他の射影方式の説明を省略する。
 〔等距離射影方式〕
 まず、等距離射影方式について説明する。
 図1Bに示すように、等距離射影方式は、入射角に対して、像高がf・θの位置に結像される射影方式であり、入射角と像高が比例関係となる。このため、等距離射影方式は、周辺画像が圧縮されず、測位等に有効な射影方式である。
 〔立体射影方式〕
 次に、立体射影方式について説明する。
 図1Cに示すように、立体射影方式は、入射角に対して像高が2f・tan(θ/2)の位置に結像される。魚眼光学系の射影方式では、周辺像が拡大される唯一の方式であり、中心射影に変換する場合において、最も周辺の画質を確保することができる。このため、立体射影方式は、最も周辺の画質を確保することができるので、動画撮影に有効な射影方式である。
 〔変換方法〕
 次に、魚眼光学系の像を中心射影方式に変換する変換方法について説明する。
 図2は、魚眼光学系の像を中心射影方式に変換する変換方法の概要を模式的に示す図である。なお、図2では、式を簡略化するため、等距離射影方式から中心射影方式に転換する場合について説明する。
 図2に示すように、入射角であって、光軸と入射とがなす角をθ、入射と魚眼光学系の水平を示す線とがなす結像方位角をθとした場合、等距離射影光学系の焦点距離fおよび像高hの座標(x、y)は、以下の式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 この関係から方位角は、以下の式(2)となる。
Figure JPOXMLDOC01-appb-M000002
 等距離射影方式の場合、像高hと入射角θは、以下の式(3)で表される。
Figure JPOXMLDOC01-appb-M000003
即ち、以下の式(4)で表される。
Figure JPOXMLDOC01-appb-M000004
 中心射影方式の焦点距離fおよび像高hは、以下の式(5)となる。
Figure JPOXMLDOC01-appb-M000005
 以上より、座標(x、y)を中心射影方式に展開した場合の座標を(x,y)とすると、焦点距離fおよび焦点距離fは、既知の値であり、変換後の座標は、以下の式(6-1)および式(6―2)によって算出することができる。
Figure JPOXMLDOC01-appb-M000006
 〔回転した画像の切り出し方法の概要〕
 次に、回転した画像の切り出し方法について説明する。
 図3A~図3Cは、回転した画像の切り出し方法の概要を模式的に説明する図である。図3A~図3Cにおいて、矩形状の領域が撮像素子ISを示す。この撮像素子ISは、アスペクト比が4:3(17.3mm×13mm)のサイズである。さらに、撮像素子ISに対して円径の領域がイメージサークルICを示す。
 イメージサークルICは、約7mmの等距離射影方式の魚眼光学系とした場合、対角画角が180°となるように被写体像が結像される。この場合、撮像素子ISの、水平画角が約144°、垂直画角が約108°となる。
 即ち、本開示では、上述した魚眼光学系によって結像された被写体像を画像として読み出し、中心射影に展開する場合、最大画角となる対角画角が垂直画角108°以下となるように焦点距離を決定し、撮像装置が備える魚眼光学系の光軸を回転軸とする回転方向の傾斜角が0°~360°の期間において、どのように回転しても一定画角で切り出すことができる。例えば、対角画角は、中心射影光学系の焦点距離が8mmの場合、撮像素子ISから得られる値が107°となる。
 また、図3A~図3Cにおいて、撮像素子ISの撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域を示す領域TAは、中心射影方式で切り出す領域を示す。この場合において、回転後の中心射影方式に変換した座標は、回転量をθとするとき、以下の式(7-1)、式(7-2)によって算出することができる。
Figure JPOXMLDOC01-appb-M000007
 なお、-45°回転する場合のθは、以下となる。
Figure JPOXMLDOC01-appb-M000008
 このように、本開示によれば、どのような傾きであっても、一定画角で画像劣化なく、傾きを補正した画像を取得することができる。
 図4Aは、正方形の撮像素子に対角が213°となるように被写体像が結像した状態を示す図である。図4Bは、図4Aの状態から射影変換した後の状態を示す図である。
 図4Aおよび図4Bに示すように、正方形の撮像素子(センサ)ISは、最小画角が水平と垂直において同じとなり、最も効率的な構成となる。具体的には、正方形の撮像素子ISは、水平画角および垂直画角が約150°となり、中心射影方式に変換した場合において、最広角で35mm換算にしたとき、焦点距離6mm相当の画像を得ることができる。このため、図4Aおよび図4Bに示すように、正方形の撮像素子ISは、画角が水平hから角度θ傾斜した場合であっても、魚眼光学系のゆがみが補正されて、水平が保たれた画像P1を得ることができる。即ち、正方形の撮像素子ISは、撮像装置が備える魚眼光学系の光軸を回転軸とする回転方向の傾斜角が0°~360°の範囲で回転した場合であっても、撮像面に内包する領域であるので、水平が保たれた画像P1を得ることができる。
(実施の形態1)
 〔撮像装置の概略構成〕
 次に、実施の形態1について説明する。
 図5は、実施の形態1に係る撮像装置の概略構成図である。図5に示す撮像装置1は、動画記録可能なデジタルスチルカメラであり、所謂アクションカムと呼ばれるものである。この撮像装置1は、本体部10と、本体部10に配置された魚眼光学系11と、記録の開始を指示する操作部101と、を備える。
 撮像装置1は、ユーザによって操作部101が押下された場合、動画撮影を開始し、再度、操作部101が押下されることによって動画撮影を停止する。これにより、撮像装置1は、撮像装置1の姿勢が大きく変化した場合であっても、記録開始時の姿勢に水平が固定された画像を得ることができるので、画像の回転による見栄えの低下を防止することができる。
 〔撮像装置の機能構成〕
 図6は、撮像装置1の機能構成を示すブロック図である。図6に示すように、撮像装置1は、本体部10と、魚眼光学系11と、撮像素子12と、映像読出部13と、姿勢検出部14と、設定部15と、切り出し部16と、変換部17と、画像処理部18と、記録部19と、表示部20と、制御部21と、を備える。
 本体部10は、筐体状をなし、内部に各部を収容する。本体部10は、防水機能を有し、各隙間に対してシーリングが施されている。
 魚眼光学系11は、被写体を撮像面に対して魚眼射影方式による被写体像を撮像素子12の撮像面に結像する。具体的には、魚眼光学系11は、立体射影方式または等距離射影方式によって被写体像を撮像素子112の撮像面に結像する。魚眼光学系11は、1または複数のレンズ、絞りおよびシャッタ等を用いて構成される。なお、実施の形態1では、動画撮影による記録時の画質を優先するため、立体射影方式を用いた例について説明するが、これに限定されることなく、上述した種々の射影方式を用いることができる。
 撮像素子12は、撮像面を有し、魚眼光学系11が結像した被写体像(魚眼像)を受光することによって映像信号に変換した第1の撮影画像データに基づく第1の撮影画像(以下、単に[第1の撮影画像]という)を生成する。撮像素子12は、制御部21の制御のもと、所定のフレームレートに従って第1の撮影画像を生成する。撮像素子12は、CCD(Charge Coupled Device)センサまたはCMOS(Complementary Metal Oxide Semiconductor)センサ等を用いて構成される。さらに、実施の形態1では、撮像素子12は、撮像面の形状が正方形をなす。なお、実施の形態1では、撮像素子12の撮像面の形状を正方形として説明するが、これに限定されることなく、例えば撮像素子12のセンササイズと魚眼光学系11の焦点距離とによって適宜変更することができ、例えば撮像面の形状が長方形であってもよいし、撮影モードに応じてマルチアスペクト可能なように、制御部21の制御のもと撮像面の領域や形状を変更してもよい。
 映像読出部13は、制御部21の制御のもと、撮像素子12が生成した第1の撮影画像を順次読み出して切り出し部16へ出力する。映像読出部13は、カラム回路、ノイズ除去回路、A/D変換回路、垂直走査回路および水平走査回路等を用いて構成される。
 姿勢検出部14は、魚眼光学系11の光軸L1を回転軸とする回転方向の傾斜角を検出し、この検出結果を設定部15および制御部21へ出力する。姿勢検出部14は、ジャイロセンサおよび加速度センサ等用いて構成される。
 設定部15は、撮像素子12の撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、姿勢検出部14が検出した傾斜角と、に基づいて、所定の領域を回転させて切り出し部16が切り出す画像切り出し領域を設定する。具体的には、ここで、画像切り出し領域は、所定の領域に対する傾斜角が0°~360°の範囲で回転させた場合に、撮像素子12の撮像面内に内包する領域である。ここで、所定の領域とは、撮像素子12の撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域を示す領域TAである(図3A~図3Cを参照)。
 切り出し部16は、第1の撮影画像から設定部15によって設定された画像切り出し領域を切り出すことによって第2の撮影画像を生成し、この第2の撮影画像を変換部17へ出力する。
 変換部17は、姿勢検出部14が検出した傾斜角に基づいて、切り出し部16が生成した第2の撮影画像を中心射影像に変換した第3の撮影画像を生成し、この生成した第3の撮影画像を画像処理部18へ出力する。具体的には、変換部17は、撮像素子12の撮像面に対応する水平画角および垂直画角のうちの小さい方の画角よりも対角の画角が狭くなる焦点距離および姿勢検出部14が検出した傾斜角に基づいて、第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する。
 画像処理部18は、変換部17から入力された第3の撮影画像に対して、各種の画像処理を行って記録部19または表示部20へ出力する。ここで、各種の画像処理としては、デモザイキング処理、ホワイトバランス処理、ノイズ低減処理および圧縮処理等である。ここで、圧縮処理としては、第3の撮影画像が静止画の場合、例えばJPEG(Joint Photographic Experts Group)形式であり、第3の撮影画像が動画の場合、例えばmpeg4形式である。なお、画像処理部18、設定部15、切り出し部16および変換部17は、例えばメモリと、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)およびGPU(Graphics Processing Unit)等のハードウェアを有するプロセッサを用いて構成される。
 記録部19は、揮発性メモリおよび不揮発性メモリ等を用いて構成され、画像処理部18から入力された第3の撮影画像、静止画像および撮像装置1が実行する各種のプログラムを記録する。なお、記録部19は、本体部10に対して着脱自在なメモリカードを用いて構成してもよい。
 表示部20は、画像処理部18から入力された第3の撮影画像に基づく表示画像を表示する。表示部20は、液晶または有機EL(Electro Luminescence)等を用いて構成される。また、表示部20は、撮像装置1に関する各種情報を表示する。
 制御部21は、メモリと、CPU(Central Processing Unit)等のハードウェアを有するプロセッサを用いて構成される。制御部21は、撮像装置1を構成する各部を制御する。
 〔撮像装置の処理〕
 次に、撮像装置1が実行する処理について説明する。図7は、撮像装置1が実行する処理の概要を示すフローチャートである。
 図7に示すように、まず、撮像装置1は、ライブビュー画像を表示画像として表示部20に表示させるライブビュー表示処理を実行する(ステップS1)。ステップS1の後、撮像装置1は、後述するステップS2へ移行する。
 〔ライブビュー表示処理〕
 図8は、図7のライブビュー表示処理の概要を示すフローチャートである。図8に示すように、撮像素子12は、魚眼光学系11によって結像された被写体像を映像信号に変換した第1の撮影画像を生成する(ステップS10)。この場合、映像読出部13は、撮像素子12から第1の撮影画像を読み出す。
 続いて、姿勢検出部14は、魚眼光学系11の光軸L1を回転軸とする回転方向の傾斜角を検出する(ステップS11)。
 その後、設定部15は、撮像素子12の撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、姿勢検出部14によって検出された傾斜角と、に基づいて、所定の領域を回転させて切り出す画像切り出し領域を設定する(ステップS12)。
 続いて、切り出し部16は、映像読出部13が撮像素子12から読み出した第1の撮影画像に対して、設定部15によって設定された画像切り出し領域を切り出すことによって第2の撮影画像を生成する(ステップS13)。
 その後、変換部17は、切り出し部16が生成した第2の撮影画像を、中心射影像に変換した第3の撮影画像を生成する(ステップS14)。
 続いて、制御部21は、画像処理部18が変換部17によって生成された第3の撮影画像に画像処理を施した表示画像を表示部20に表示させる(ステップS15)。ステップS15の後、撮像装置1は、図7のメインルーチンへ戻り、ステップS2へ移行する。
 図7に戻り、ステップS2以降の説明を続ける。
 ステップS2において、操作部101が押下された場合(ステップS2:Yes)、撮像装置1は、後述するステップS3へ移行する。これに対して、操作部101が押下されていない場合(ステップS2:No)、撮像装置1は、後述するステップS5へ移行する。
 ステップS3において、撮像装置1は、記録部19に順次撮影した画像を時系列に沿って順次記録する動画撮影処理を実行する。ステップS3の後、撮像装置1は、後述するステップS4へ移行する。
 〔動画撮影処理の概要〕
 図9は、図7の動画撮影処理の概要を示すフローチャートである。図9に示すように、まず、姿勢検出部14は、操作部101が押下された時点における魚眼光学系11の光軸L1を回転軸とする回転方向の傾斜角を検出する(ステップS31)。ここでは、操作部101が押下された時点(直後)の場合は、押下された時点の傾斜角を検出してメモリ(記録部19)に記憶する。また、操作部101が押下された時点ではない場合(すなわち図7のステップS4:No))から動画撮影処理(ステップS3)に移行するときは、第1の撮影画像を生成する際の傾斜角を検出する。
 続いて、撮像素子12は、魚眼光学系11によって結像された被写体像を映像信号に変換した第1の撮影画像を生成する(ステップS32)。この場合、映像読出部13は、撮像素子12から第1の撮影画像を読み出す。
 その後、設定部15は、撮像素子12の撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、姿勢検出部14によって検出された傾斜角と、メモリ(記録部19)に記憶されている、操作部101が押下された時点の傾斜角に基づいて、所定の領域を回転させて切り出す画像切り出し領域を設定する(ステップS33)。ここでは、メモリ(記録部19)に記憶されている、操作部101が押下された時点の傾斜角を基準とする。つまり、設定部15は、第1の撮影画像を生成する際に検出した傾斜角(最新の傾斜角)からメモリ(記録部19)に記憶された傾斜角(前回の傾斜角)を減算することによって新たに傾斜角として扱う。
 続いて、切り出し部16は、映像読出部13が撮像素子12から読み出した第1の撮影画像に対して、設定部15によって設定された画像切り出し領域を切り出すことによって第2の撮影画像を生成する(ステップS34)。
 その後、変換部17は、切り出し部16が生成した第2の撮影画像を、中心射影像に変換した第3の撮影画像を生成する(ステップS35)。
 続いて、制御部21は、画像処理部18が変換部17によって生成された第3の撮影画像に画像処理を施した表示画像を記録部19に記録し、かつ、表示部20に表示させる(ステップS36)。ステップS36の後、撮像装置1は、図7のメインルーチンへ戻り、ステップS4へ移行する。
 図7に戻り、ステップS4以降の説明を続ける。
 ステップS4において、操作部101が押下された場合(ステップS4:Yes)、撮像装置1は、後述するステップS5へ移行する。これに対して、操作部101が押下されていない場合(ステップS4:No)、撮像装置1は、上述したステップS3へ戻る。
 ステップS5において、図示しない電源スイッチが操作され、撮影を終了する終了信号が入力された場合(ステップS5:Yes)、撮像装置1は、本処理を終了する。これに対して、図示しない電源スイッチが操作されず、撮影を終了する終了信号が入力されていない場合(ステップS5:No)、撮像装置1は、上述したステップS1へ戻る。
 以上説明した実施の形態1によれば、設定部15が撮像素子12の撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、姿勢検出部14によって検出された魚眼光学系11の光軸を回転軸とする回転方向の傾斜角と、に基づいて、所定の領域を回転させて切り出す画像切り出し領域を設定し、切り出し部16が第1の撮影画像に対して、画像切り出し領域を切り出すことによって第2の撮影画像を生成し、変換部17が第2の撮影画像を中心射影像に変換した第3の撮影画像を生成することによって、動画撮影の記録開始からの姿勢変化に応じて回転補正を行うので、回転補正量に制限がなく、360°補正が可能であり、かつ、光軸の回転方向における回転角が大きい場合であっても、画角が回転しない安定した動画を得ることができる。
 また、実施の形態1によれば、撮像素子12の形状を正方形とすることによって、水平画角と垂直画角とが等しくなるので、撮像面の利用効率を最も高くすることができる。
 また、実施の形態1によれば、魚眼光学系11が立体射影方式の場合、被写体像の周辺が拡大されるので、中心射影方式に変換した場合に被写体像の周辺の拡大率が小さくなるので、被写体像の周辺画質の劣化を防止することができる。
 なお、実施の形態1では、本体部10と魚眼光学系11とが一体的に形成されていたが、例えば本体部10に対して魚眼光学系11が着脱自在であってもよい。
 また、実施の形態1では、表示部20が第3の撮影画像に基づく表示画像を表示していたが、これに限定されることなく、表示部20に、少なくとも第1の撮影画像、第2の撮影画像および第3の撮影画像のいずれか一つを表示させてもよい。この場合、制御部21は、操作部101が入力を受け付けた第1の撮影画像、第2の撮影画像および第3の撮影画像のいずれか1つを選択する選択信号に応じて選択された画像を表示部20に表示させる。これにより、ユーザが所望する状態の画像を表示することができる。
(実施の形態2)
 次に、実施の形態2について説明する。上述した実施の形態1では、撮像装置を例に説明していたが、実施の形態2では、工業用の内視鏡を備えた撮像システムについて説明する。このため、以下においては、実施の形態2に係る内視鏡を備えた撮像システムについて説明する。なお、上述した実施の形態1に係る撮像装置1と同一の構成には同一の符号を付して詳細な説明は省略する。
 〔撮像システムの概略構成〕
 図10は、実施の形態2に係る撮像システムの概略構成を示す図である。図10に示す撮像システム100は、配管等の検査に使用される、工業用内視鏡システムである。例えば、配管内の検査では、後述するようにケーブルの先端に配置されるカメラヘッドを配管内に挿入させ、配管の奥の方の内壁を観察して配管の損傷の位置や損傷度合いを検査する。この時に、従来の工業用内視鏡システムは、ケーブル先端のカメラヘッド本体の上下方向の位置は制御できないので、カメラヘッドにより撮像された観察画像の上下方向を判別することができないという問題点がある。
 撮像システム100は、カメラヘッドとして機能する撮像装置1Aと、撮像装置1Aを操作するための端末装置2Aと、撮像装置1Aと端末装置2Aとを双方向に通信可能に接続するケーブル3Aと、ケーブル3Aを巻き取り可能に保持するリール4Aと、を備える。
 撮像装置1Aは、レンズユニット10Aと、本体部101Aと、を備える。撮像装置1Aは、本体部101Aに対してレンズユニット10Aを上下左右自在に屈曲可能に構成されている。
 端末装置2Aは、表示部31と、操作レバー32と、記録スイッチ33と、を備える。表示部31は、撮像装置1Aによって撮影されて生成された表示画像P10をリアルタイムで表示する。操作レバー32は、例えばジョイスティック等を用いて構成され、撮像装置1Aのレンズユニット10Aの光軸L1の向きを操作する操作信号の入力を受け付ける。例えば、操作レバー32は、ユーザがレバー部321を上に倒した場合、表示部31に表示される表示画像の視野が上方向に移動するようにレンズユニット10Aの光軸L1を屈曲させる操作信号の入力を受け付ける。レバー部321は、360°自在に傾斜可能に構成され、ユーザが傾斜させた方向にレンズユニット10Aの光軸L1(観察方向)に視野を移動させる操作信号の入力を受け付ける。記録スイッチ33は、静止画撮影を指示する指示信号の入力を受け付ける。なお、実施の形態2では、操作レバー32が操作部として機能する。
 リール4Aは、ケーブル3Aが巻き取り可能に保持される。リール4Aは、ユーザ操作に応じて、ケーブル3Aを適宜送り出すことによって撮像装置1Aを配管内で移動させる。
 このように構成された撮像システム100は、ユーザが表示部31によって表示されている配管内の表示画像P10で配管を確認している場合において、傷を発見したとき、ユーザが操作レバー32を操作し、レンズユニット10Aの光軸L1を変更させる。その後、撮像システム100は、ユーザが操作レバー32を用いて傷が観察視野の中心となるように操作する。そして、撮像システム100は、ユーザが記録スイッチ33を操作された場合、傷を含む問題箇所に対して静止画撮影を行うことによって記録媒体等に記録する。
 〔撮像システムの機能構成〕
 次に、撮像システム100の機能構成について説明する。図11は、撮像システム100の機能構成を示すブロック図である。
 図11に示す撮像システム100は、撮像装置1Aと、端末装置2Aと、ケーブル3Aと、を備える。
 〔撮像装置の機能構成〕
 まず、撮像装置1Aの機能構成について説明する。撮像装置1Aは、レンズユニット10Aと、本体部101Aと、を備える。
 レンズユニット10Aは、魚眼光学系11Aと、撮像素子12と、を備える。レンズユニット10Aは、本体部101Aに対して、上下左右自在に屈曲可能に構成されている。魚眼光学系11Aは、1または複数のレンズ、絞りおよびシャッタ等を用いて構成される。なお、実施の形態2では、検査が目的のため、測位等に有利な等距離射影方式を用いた例について説明するが、これに限定されることなく、上述した種々の射影方式を用いることができる。
 本体部101Aは、映像読出部13と、姿勢検出部14Aと、設定部15と、切り出し部16と、変換部17と、第1の通信部22と、光学系駆動部23と、第1の制御部24と、を備える。
 姿勢検出部14Aは、撮像装置1Aの重力ベクトルと直交する水平方向および水平方向の各々の加速度を検出し、かつ、魚眼光学系11の光軸L1の光軸周りの回転を検出する。具体的には、姿勢検出部14Aは、撮像装置1Aの重力方向および水平方向の各々の加速度を検出し、かつ、魚眼光学系11の光軸L1の光軸周りの回転を検出する。姿勢検出部14Aは、3軸の加速度センサおよび魚眼光学系11の光軸L1の光軸周りの回転を検出するジャイロセンサ等を用いて構成される。なお、姿勢検出部14Aは、重力ベクトルの検出を加速度センサだけでなく、ジャイロセンサによって回転変化を検出し、加速度による重力変化の信頼性が低い場合、ジャイロセンサである時点の重力から指定した値を撮像装置1Aの姿勢情報として検出してもよい。
 第1の通信部22は、ケーブル3Aを経由して端末装置2Aから入力された各種情報を第1の制御部24へ送信し、かつ、第1の制御部24から入力された各種情報を端末装置2Aへ送信する。例えば、第1の通信部22は、変換部17によって変換された第3の撮影画像(第1の実施形態と同様)を端末装置2Aへ送信する。第1の通信部22は、所定の通信モジュールを用いて構成される。
 光学系駆動部23は、第1の制御部24の制御のもと、端末装置2Aから入力された操作信号に応じて、レンズユニット10Aの光軸L1を上下左右自在な方向に屈曲させる。光学系駆動部23は、例えば複数の湾曲駒と、モータ等によって構成される。
 第1の制御部24は、撮像装置1Aの各部を制御する。また、第1の制御部24は、第1の通信部22を経由して端末装置2Aから入力された各種の操作信号に応じた制御を行う。例えば、第1の制御部24は、端末装置2Aから入力された操作信号に応じて、光学系駆動部23を駆動することによってレンズユニット10Aの光軸L1を操作信号に応じた方向に屈曲させる。第1の制御部24は、メモリと、ASIC、FPGAおよびCPU等のハードウェアを有するプロセッサを用いて構成される。
 〔端末装置の機能構成〕
 次に、端末装置2Aの機能構成について説明する。端末装置2Aは、表示部31と、操作レバー32と、記録スイッチ33と、第2の通信部34と、映像出力部35と、記録部36と、操作指示生成部37と、第2の制御部38と、を備える。
 第2の通信部34は、操作指示生成部37から入力される操作信号、第2の制御部38から入力される各種の情報を、ケーブル3Aを経由して第1の通信部22へ送信する。また、第2の通信部34は、第2の制御部38の制御のもと、第1の通信部22から送信された各種の情報、例えば第3の撮影画像を映像出力部35へ出力する。第2の通信部34は、所定の通信モジュールを用いて構成される。
 映像出力部35は、第2の通信部34を経由して入力された撮像装置1からの第3の撮影画像に対して、各種の画像処理を行って記録部36または表示部31へ出力する。ここで、各種の画像処理としては、デモザイキング処理、ホワイトバランス処理、ノイズ低減処理および圧縮処理等である。これにより、表示部31によって表示される表示画像は、撮像装置1内で重量方向が下となるように水平補正されたものなので、映像上下が表示と一致しているので、傷の位置を容易に特定することができる。また、映像出力部35は、例えば、メモリと、GPUやFPGA等のハードウェアを有するプロセッサを用いて構成される。
 記録部36は、揮発性メモリおよび不揮発性メモリ等を用いて構成され、映像出力部35から入力された第3の撮影画像、静止画像および撮像装置1が実行する各種のプログラムを記録する。また、記録部36は、第2の制御部38の制御のもと、記録スイッチ33から記録を指示する指示信号が入力された場合、映像出力部35から入力された画像を記録する。なお、記録部36は、端末装置2Aに対して着脱自在なメモリカードを用いて構成してもよい。また、記録部36は、第2の制御部38の制御のもと、第1の通信部22から送信され第2の通信部34から出力される第3の撮影画像を、記録するようにしてもよい。
 操作指示生成部37は、操作レバー32の操作に応じた撮像装置1の光軸L1の屈曲方向を指示する操作信号を生成し、この操作信号を第2の通信部34へ出力する。具体的には、操作指示生成部37は、例えば操作レバー32のレバー部321の傾斜角および屈曲方向と、第1の通信部22およびケーブル3Aを経由して入力された姿勢検出部14が検出した検出結果と、に基づいて、操作方向を回転または反転した方向に撮像装置1の光軸L1が屈曲する操作信号を生成し、この操作信号を第2の通信部34へ出力する。
 第2の制御部38は、端末装置2Aの各部を制御する。第2の制御部38は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。
 〔検査時の状態〕
 次に、上述した撮像システム100が用いて配管等を検査する際の状態について説明する。図12Aは、撮像装置1Aの光軸L1が配管内で水平方向を向いている状況を示す図である。図12Bは、撮像装置1Aの光軸L1が配管内で斜め方向を向いている状況を示す図である。図12Cは、撮像装置1Aの光軸L1が配管内で重力方向を向いている状況を示す図である。
 図12Aおよび図12Bに示すように、撮像システム100は、撮像装置1Aの光軸L1が水平方向から斜め方向へ向いた場合(図12A→図12B)、重力ベクトルの撮像面R100に対する投影ベクトルが示す方向が、表示部31が表示する表示画像の下となるように回転して表示部31に表示させる。具体的には、変換部17は、姿勢検出部14Aが検出した重力ベクトルと直交する水平方向と魚眼光学系11Aの光軸L1を回転軸となる回転方向の傾斜角との差を補正することによって第2の撮影画像を中心射影像である第3の撮影画像に変換する。そして、第2の制御部38は、第2の通信部34を経由して撮像装置1Aから受信した第3の撮影画像を、重力ベクトルの撮像面R100に対する投影ベクトルが示す方向が、表示部31が表示する表示画像の下となるように回転して表示部31に表示させる。
 さらに、図12Bおよび図12Cに示すように、撮像システム100は、撮像装置1Aの光軸L1が斜め方向からさらに傾きが深くなった場合、光軸方向への重力成分が支配的となる。この場合、変換部17は、撮像装置1Aの光軸L1が重力方向に切り替わった時点からの光軸L1周りの回転を、前方が重力方向に切り替わる直前の水平を維持するように補正した第3の撮影画像を生成する。具体的には、変換部17は、姿勢検出部14Aの検出結果に基づいて、光軸L1周りの回転を、前方が重力方向に切り替わる直前の水平を維持するように補正した第3の撮影画像を生成する。そして、第2の制御部38は、第2の通信部34を経由して撮像装置1Aから受信した第3の撮影画像を表示部31に表示させる。これにより、撮像システム100は、撮像装置1Aの視野領域が上下方向に切り替わった場合であっても、回転のない画像を取得することができる。さらに、第2の制御部38は、表示部31が表示する表示画像に撮像装置1の光軸L1方向や方位を示す情報を重畳して表示部31に表示させてもよい。これにより、ユーザは、配管内における撮像装置1Aの位置や姿勢を容易に認識することができる。
 以上説明した実施の形態2によれば、撮像装置1Aの観察視野の上下方向が配管等によって判別することが困難な場合であっても、表示部31によって表示される表示画像の上下方向が常に保持された状態で表示されるので、検査の視認性を向上させることができる。
 さらに、実施の形態2によれば、表示部31によって表示される表示画像と操作レバー32の操作とが一致するので、検査時の操作性を向上させることができる。
 また、実施の形態2によれば、魚眼光学系11Aを等距離射影方式の場合、被写体像の像高と魚眼光学系11Aの光軸L1に対する角度が比例関係にあり、映像による測定を行う場合に計算を簡略化することができる。
 また、実施の形態2によれば、変換部は17が姿勢検出部14Aによって検出された水平方向と魚眼光学系11Aの光軸L1を回転軸とする回転方向の傾斜角との差を補正することを含めて第2の撮影画像を中心射影像である第3の撮影画像に変換するので、常に表示画像の上下が一致した表示画像を表示することができる。
 また、実施の形態2によれば、端末装置2Aに撮像装置1Aの傾きを補正した表示画像と姿勢情報を送信するので、ユーザが遠隔で安定した表示画像を確認しながら撮像装置1Aの操作を行うことができる。
 また、実施の形態2によれば、操作指示生成部37が表示部31によって表示される表示画像の回転と合わせて、操作レバー32の指示信号を撮像方向に回転した操作信号を生成するので、撮像装置1Aの撮像方向が操作方向の指示と同じ方向に回転するので、ユーザが容易に操作を行うことができる。
 なお、実施の形態2は、工業用内視鏡システムとしているが、医療用内視鏡システムに適用してもよい。
(実施の形態3)
 次に、実施の形態3について説明する。上述した実施の形態2では、工業用の内視鏡を備えた撮像システムについて説明したが、実施の形態3では、飛行機や車等の車載カメラや所定の位置に設置された防犯カメラからの映像を遠隔から確認する撮像システムである。このため、以下においては、実施の形態3に係る撮像システムについて説明する。なお、上述した実施の形態1に係る撮像装置および上述した実施の形態2に係る撮像システム100と同一の構成には同一の符号を付して詳細な説明を省略する。
 〔撮像システムの機能構成〕
 図13は、実施の形態3に係る撮像システムの機能構成を示すブロック図である。図13に示す撮像システム100Bは、飛行機や車等の車載カメラや所定の位置に設置される撮像装置1Bと、撮像装置1Bと無線通信によって操作する端末装置2Bと、を備える。
 撮像装置1Bは、魚眼光学系11と、撮像素子12と、姿勢検出部14Bと、設定部15と、切り出し部16と、変換部17と、第1の通信部22Bと、第1の制御部24と、を備える。
 姿勢検出部14Bは、撮像装置1Bの重力方向および水平方向の各々の加速度を検出すし、かつ、魚眼光学系11の光軸L1の光軸周りの回転を検出する。姿勢検出部14Bは、3軸の加速度センサおよび魚眼光学系11の光軸L1の光軸周りの回転を検出するジャイロセンサ等を用いて構成される。なお、姿勢検出部14Bは、撮像装置1Bが設置されたものが動きの激しい乗り物に対応するため、重力ベクトルの検出を加速度センサだけでなく、ジャイロセンサによって回転変化を検出し、加速度による重力変化の信頼性が低い場合、ジャイロセンサである時点からの回転量を撮像装置1Bの姿勢情報として検出してもよい。
 第1の通信部22Bは、第1の制御部24の制御のもと、各種情報を所定の無線通信規格に従って端末装置2Bへ送信する。第1の通信部22Bは、無線通信モジュールを用いて構成される。
 次に、端末装置2Bについて説明する。
 端末装置2Bは、表示部31と、第2の通信部34Bと、映像出力部35と、記録部36と、第2の制御部38と、姿勢画像生成部39と、を備える。
 姿勢画像生成部39は、第1の通信部22Bから入力された撮像装置1Bの姿勢情報に基づいて、姿勢画像を生成し、この姿勢画像を映像出力部35へ出力する。この場合、映像出力部35は、撮像装置1Bからの第3の撮影画像に、姿勢画像生成部39から入力された姿勢画像を重畳した画像を生成し、表示部31または記録部36へ出力する。
 このように構成された撮像システム100Bは、表示部31に第3の撮影画像に姿勢画像が重畳された表示画像を表示させる。具体的には、図14に示すように、撮像システム100Bは、姿勢画像として飛行機の形状であって、かつ、撮像装置1Bの姿勢に応じた傾いた飛行機の形状P101を第3の撮影画像P100に重畳して表示部31に表示させる。この場合、撮像システム100Bは、姿勢画像である飛行機の形状P101を半透過で重畳されるようにしてもよいし、点線によって重畳されるようにしてもよい。
 以上説明した実施の形態3によれば、撮像装置1Bを搭載した移動体がどうような動き(例えば移動体が飛行機の場合、きりもみ飛行)を行って場合であっても、表示部31で表示される表示画像が回転することがないうえ、移動体の姿勢も直感的に把握することができる。
 また、実施の形態3によれば、ユーザが遠隔操作を行っている場合であっても、ユーザが映像酔いや見栄えの低下を防止することができるので、ゲーム感覚のような操作性を提供することができる。
 また、実施の形態3によれば、表示画像が回転しないので、視認性が損なわれること無く、機体姿勢も把握できるため、遠隔操作を行う場合でも操作性の向上させることができる。
(実施の形態4)
 次に、実施の形態4について説明する。上述した実施の形態3では、撮像装置と端末装置の各々が備える機能が異なる。以下においては、上述した実施の形態4に係る撮像システムの構成について説明する。なお、上述した実施の形態3に係る撮像システム100Bと同一の構成には同一の符号を付して詳細な説明は省略する。
 〔撮像システムの機能構成〕
 図15は、実施の形態4に係る撮像システムの機能構成を示すブロック図である。図15に示す撮像システム100Cは、撮像機能および通信機能を有する撮像装置1Cと、スマートフォン等のタブレット端末として機能する端末装置2Cと、を備える。撮像装置1Cおよび端末装置2Cは、所定の無線通信規格に従って双方向に通信する。ここで、所定の無線通信規格としては、例えばWi-Fi(登録商標)およびBluetooth(登録商標)である。撮像システム100Cは、撮像装置1Cで生成された第1の撮影画像を、端末装置2Cに送信し、端末装置2Cにおいて第1の撮影画像に基づいて第3の撮影画像に変換して表示させる。
 〔撮像装置の機能構成〕
 まず、撮像装置1Cの機能構成について説明する。撮像装置1Cは、上述した実施の形態3に係る撮像装置1Bの構成から、設定部15、切り出し部16および変換部17を省略し、それ以外の構成は同様である。
 〔端末装置の機能構成〕
 次に、端末装置2Cの機能構成について説明する。端末装置2Cは、上述した実施の形態2に係る端末装置2Bの構成に加えて、設定部15、切り出し部16および変換部17を備える。即ち、設定部15、切り出し部16および変換部17の各々は、記録部36に記録されたアプリケーション内のプログラムを読み込むことによって実行される。なお、実施の形態3では、第2の通信部34が取得部として機能する。さらに、端末装置2Cが画像処理装置として機能する。
 以上説明した実施の形態4によれば、端末装置2Cに主要な機能を持たせたので、比較的に安価なものを提供することができる。
(その他の実施の形態)
 上述した実施の形態1~4に開示されている複数の構成要素を適宜組み合わせることによって、種々の形態を形成することができる。例えば、上述した実施の形態1~4に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した実施の形態1~4で説明した構成要素を適宜組み合わせてもよい。
 また、実施の形態1~4では、上述してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。
 また、実施の形態1~4に係る撮像装置、撮像システムおよび画像処理装置のいずれか一つに実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
 また、実施の形態1~4に係る撮像装置、撮像システムおよび画像処理装置のいずれか一つに実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。さらに、本開示に係る撮像装置、撮像システムおよび画像処理装置のいずれか一つに実行させるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
 なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本開示を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
 以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、本発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
 1,1A,1B,1C 撮像装置
 2A,2B,2C 端末装置
 3A ケーブル
 4A リール
 10 本体部
 10A レンズユニット
 11,11A 魚眼光学系
 12 撮像素子
 13 映像読出部
 14,14B 姿勢検出部
 15 設定部
 16 切り出し部
 17 変換部
 18 画像処理部
 19 記録部
 20,31 表示部
 21 制御部
 22,22B 第1の通信部
 23 光学系駆動部
 24 第1の制御部
 32 操作レバー
 33 記録スイッチ
 34,34B 第2の通信部
 35 映像出力部
 36 記録部
 37 操作指示生成部
 38 第2の制御部
 39 姿勢画像生成部
 100,100B,100C 撮像システム
 101A 本体部

Claims (16)

  1.  被写体を撮像面に対して魚眼射影像方式による被写体像を結像する魚眼光学系と、
     前記撮像面を有し、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力する撮像素子と、
     前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出する姿勢検出部と、
     前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定する設定部と、
     前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成する切り出し部と、
     前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する変換部と、
     を備える、
     撮像装置。
  2.  請求項1に記載の撮像装置であって、
     前記画像切り出し領域は、
     前記所定の領域に対する前記傾斜角が0°~360°の範囲で回転させた場合に、前記撮像面内に内包する領域である、
     撮像装置。
  3.  請求項1または2に記載の撮像装置であって、
     少なくとも前記第1の撮影画像、前記第2の撮影画像および前記第3の撮影画像の1つを表示可能な第1の表示部と、
     少なくとも前記第1の撮影画像、前記第2の撮影画像および前記第3の撮影画像のいずれか1つを選択する指示信号の入力を受け付ける操作部と、
     前記指示信号に応じて選択された画像を前記第1の表示部に表示させる第1の制御部と、
     をさらに備える、
     撮像装置。
  4.  請求項1~3のいずれか一つに記載の撮像装置であって、
     前記変換部は、
     前記傾斜角に基づいて、前記第3の撮影画像を中心射影方式の画像に変換する、
     撮像装置。
  5.  請求項1~3のいずれか一つに記載の撮像装置であって、
     前記変換部は、
     前記撮像面に対応する水平画角および垂直画角のうちの小さい方の画角よりも対角の画角が狭くなる焦点距離に基づいて、前記第2の撮影画像を中心射影像に変換した前記第3の撮影画像を生成する、
     撮像装置。
  6.  請求項1~5のいずれか一つに記載の撮像装置であって、
     前記撮像面は、
     形状が正方形をなす、
     撮像装置。
  7.  請求項1~6のいずれか一つに記載の撮像装置であって、
     前記姿勢検出部は、
     重力ベクトルと直交する水平方向をさらに検出し、
     前記変換部は、
     前記水平方向と前記傾斜角との差を補正することによって前記第3の撮影画像を中心射影方式の画像に変換する、
     撮像装置。
  8.  請求項1~7のいずれか一つに記載の撮像装置であって、
     前記第3の撮影画像を記録する記録部
     をさらに備える、
     撮像装置。
  9.  請求項1~8のいずれか一つに記載の撮像装置であって、
     端末装置と双方向に通信可能であり、該端末装置に前記第3の撮影画像および前記傾斜角を送信する第1の通信部
     をさらに備える、
     撮像装置。
  10.  請求項9に記載の撮像装置と、
     前記端末装置と、
     を備え、
     前記端末装置は、
     前記魚眼光学系の光軸を含む撮像方向を指示する指示信号の入力を受け付ける操作部と、
     前記傾斜角に基づいて、前記撮像方向を回転した操作信号を生成する操作信号生成部と、
     前記操作信号を前記撮像装置へ送信する第2の通信部と、
     を備え、
     前記撮像装置は、
     前記指示信号に基づいて、前記魚眼光学系の光軸を含む撮像方向を変更する光学系駆動部
     をさらに備える、
     撮像システム。
  11.  請求項10に記載の撮像システムであって、
     前記端末装置は、
     前記第3の撮影画像を表示可能な第2の表示部と、
     前記撮像装置から送信された前記傾斜角に基づいて、前記撮像装置の姿勢を示す姿勢画像を生成する姿勢画像生成部と、
     前記第3の撮影画像に前記姿勢画像を重畳して表示する第2の表示部に表示させる第2の制御部と、
     をさらに備える、
     撮像システム。
  12.  被写体を撮像面に対して魚眼射影像方式による被写体像を結像する魚眼光学系と、前記撮像面を有し、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力する撮像素子と、前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出する姿勢検出部と、を備える撮像装置から前記第1の撮影画像および前記傾斜角を取得する取得部と、
     前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定する設定部と、
     前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成する切り出し部と、
     前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する変換部と、
     を備える、
     画像処理装置。
  13.  撮像装置が実行する撮像方法であって、
     被写体を魚眼光学系によって撮像面に対して魚眼射影像方式による被写体像を結像し、
     前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力し、
     前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出し、
     前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定し、
     前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成し、
     前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する、
     撮像方法。
  14.  画像処理装置が実行する画像処理方法であって、
     被写体を撮像面に対して魚眼射影像方式による被写体像を結像する魚眼光学系と、前記撮像面を有し、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力する撮像素子と、前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出する姿勢検出部と、を備える撮像装置から前記第1の撮影画像および前記傾斜角を取得し、
     前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定し、
     前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成し、
     前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成する、
     画像処理方法。
  15.  メモリおよびハードウェアからなる少なくとも1つ以上のプロセッサを備える撮像装置に実行させるプログラムであって、
     前記撮像装置に、
     被写体を魚眼光学系によって撮像面に対して魚眼射影像方式による被写体像を結像させ、
     前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力させ、
     前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出させ、
     前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定させ、
     前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成させ、
     前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成させる、
     プログラム。
  16.  メモリおよびハードウェアからなる少なくとも1つ以上のプロセッサを備える画像処理装置に実行させるプログラムであって、
     前記画像処理装置に、
     被写体を撮像面に対して魚眼射影像方式による被写体像を結像する魚眼光学系と、前記撮像面を有し、前記被写体像を受光することによって映像信号に変換し、該映像信号を第1の撮影画像として出力する撮像素子と、前記魚眼光学系の光軸を回転軸とする回転方向の傾斜角を検出する姿勢検出部と、を備える撮像装置から前記第1の撮影画像および前記傾斜角を取得させ、
     前記撮像面内に含まれ、かつ、画像の中心とした点対称をとる所定の領域と、前記傾斜角と、に基づいて、前記所定の領域を回転させて切り出す画像切り出し領域を設定させ、
     前記第1の撮影画像に対して、前記画像切り出し領域を切り出すことによって第2の撮影画像を生成させ、
     前記第2の撮影画像を中心射影像に変換した第3の撮影画像を生成させる、
     プログラム。
PCT/JP2019/028925 2019-07-23 2019-07-23 撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラム WO2021014598A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/028925 WO2021014598A1 (ja) 2019-07-23 2019-07-23 撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/028925 WO2021014598A1 (ja) 2019-07-23 2019-07-23 撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2021014598A1 true WO2021014598A1 (ja) 2021-01-28

Family

ID=74193623

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028925 WO2021014598A1 (ja) 2019-07-23 2019-07-23 撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2021014598A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113239447A (zh) * 2021-06-11 2021-08-10 重庆电子工程职业学院 室内管路异常探测系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11508384A (ja) * 1995-06-23 1999-07-21 インタラクティブ ピクチャーズ コーポレーション 球形画像を作成する方法および装置
JP2002271654A (ja) * 2001-03-12 2002-09-20 Fuji Photo Film Co Ltd 電子カメラ
JP2005252625A (ja) * 2004-03-03 2005-09-15 Canon Inc 撮像装置および画像処理方法
JP2010219924A (ja) * 2009-03-17 2010-09-30 Ricoh Co Ltd 撮像装置
JP2017067954A (ja) * 2015-09-29 2017-04-06 オリンパス株式会社 撮像装置、及び撮像装置の像ブレ補正方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11508384A (ja) * 1995-06-23 1999-07-21 インタラクティブ ピクチャーズ コーポレーション 球形画像を作成する方法および装置
JP2002271654A (ja) * 2001-03-12 2002-09-20 Fuji Photo Film Co Ltd 電子カメラ
JP2005252625A (ja) * 2004-03-03 2005-09-15 Canon Inc 撮像装置および画像処理方法
JP2010219924A (ja) * 2009-03-17 2010-09-30 Ricoh Co Ltd 撮像装置
JP2017067954A (ja) * 2015-09-29 2017-04-06 オリンパス株式会社 撮像装置、及び撮像装置の像ブレ補正方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113239447A (zh) * 2021-06-11 2021-08-10 重庆电子工程职业学院 室内管路异常探测系统及方法
CN113239447B (zh) * 2021-06-11 2023-08-15 重庆电子工程职业学院 室内管路异常探测系统及方法

Similar Documents

Publication Publication Date Title
JP6468307B2 (ja) 撮像装置、画像処理装置および方法
CN107026973B (zh) 图像处理装置、图像处理方法与摄影辅助器材
JP5109803B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US20110234750A1 (en) Capturing Two or More Images to Form a Panoramic Image
EP2518993A1 (en) Image capturing device, azimuth information processing method, and program
US10469741B2 (en) Image processing apparatus and image processing method
JP2010199971A (ja) 撮像装置、撮像方法、及びプログラム
JP2011040898A (ja) 撮像再生装置及びプログラム
KR20180129667A (ko) 표시 제어 장치, 표시 제어 방법 및 저장 매체
KR20120065997A (ko) 전자 기기, 제어 방법, 프로그램 및 촬상 시스템
JP2001133854A (ja) カメラシステム及び表示装置
JP2019110434A (ja) 画像処理装置、画像処理システムおよびプログラム
WO2021014598A1 (ja) 撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラム
JP5248951B2 (ja) カメラ装置、画像撮影支援装置、画像撮影支援方法、及び画像撮影支援プログラム
JP5750637B2 (ja) 撮影装置
CN111263037B (zh) 图像处理装置、拍摄装置、视频播放系统、方法以及程序
JP2016063244A (ja) 撮像装置及び画像表示制御方法
JP2007333929A (ja) 映像表示システム
JP2004289225A (ja) 撮像装置
JP2010148028A (ja) 観察装置
JP2017085466A (ja) 撮像装置、及びその制御方法
KR20080021377A (ko) 자동으로 영상을 회전 처리하여 저장하는 영상 처리장치 및영상 처리방법
JP2016036085A (ja) 撮像装置および電子機器
JP2020022065A (ja) 配信装置、カメラ装置、配信システム、配信方法及び配信プログラム
JP2017204666A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19938490

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19938490

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP