WO2017056942A1 - 画像処理装置及び撮像装置及び画像処理方法及びプログラム - Google Patents

画像処理装置及び撮像装置及び画像処理方法及びプログラム Download PDF

Info

Publication number
WO2017056942A1
WO2017056942A1 PCT/JP2016/076806 JP2016076806W WO2017056942A1 WO 2017056942 A1 WO2017056942 A1 WO 2017056942A1 JP 2016076806 W JP2016076806 W JP 2016076806W WO 2017056942 A1 WO2017056942 A1 WO 2017056942A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
imaging
display
image data
Prior art date
Application number
PCT/JP2016/076806
Other languages
English (en)
French (fr)
Inventor
宗之 大島
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201680054778.8A priority Critical patent/CN108141511B/zh
Priority to JP2017543084A priority patent/JP6335395B2/ja
Publication of WO2017056942A1 publication Critical patent/WO2017056942A1/ja
Priority to US15/936,798 priority patent/US10530998B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/02Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with scanning movement of lens or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Definitions

  • the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program for performing image processing on a plurality of captured images obtained by continuously performing imaging while moving an imaging range of an imaging unit in a horizontal direction.
  • imaging units that can rotate in the pan and tilt directions are known.
  • by displaying the plurality of captured images on the display unit it is possible to confirm the subject around the imaging unit.
  • the number of captured images is large, it may be difficult to determine which direction the captured image currently displayed on the display is captured, or the subject that straddles between captured images There is a problem that it is difficult to grasp the positional relationship.
  • the panoramic image is an ultra-wide-angle image, the user can look down on the entire subject and can easily grasp the positional relationship of the subject.
  • Patent Document 1 a cylindrical conversion process is performed on a plurality of captured images obtained by continuously performing imaging while rotating the imaging unit in the horizontal direction based on the angle-of-view information of the imaging unit.
  • a method is described in which captured images after conversion processing are connected to generate a panoramic image.
  • imaging is performed using a plurality of cameras arranged so that a part of the imaging range overlaps, and imaging is performed with another camera in accordance with the coordinates of a captured image captured with one reference camera.
  • a method of generating a panoramic image by connecting the captured images after geometrically converting the coordinates of the captured images is described.
  • Patent Document 3 a panoramic image of 360 ° or more around the imaging point is generated, and the 360 ° or more panoramic image is overlapped with the common subjects included at the start and end of the 360 ° or more. A method for generating a panoramic image is described.
  • the present invention has been made in view of such circumstances, and provides a bird's-eye view and details of a subject from a plurality of captured images obtained by continuously performing imaging while moving the imaging range of the imaging unit in the horizontal direction.
  • An object is to provide an image processing apparatus, an imaging apparatus, an image processing method, and a program that enable confirmation.
  • An image processing apparatus for achieving an object of the present invention is a plurality of captured images obtained by continuously performing imaging while moving an imaging range of an imaging unit in a horizontal direction, and An image acquisition unit that acquires a plurality of captured images obtained by performing imaging while overlapping a part of the imaging range before and after, and a plurality of captured images reduced from the plurality of captured images acquired by the image acquisition unit
  • a panoramic image generation unit that generates a panoramic image in which the plurality of reduced images are connected
  • an image storage control unit that stores a plurality of captured images before reduction processing by the panoramic image generation unit in the image storage unit as original images
  • a setting unit and a determination unit that determines whether the display area set by the display region setting unit is within the imaging range of the original image, and the display control unit determines that the determination unit determines NO If the display area
  • this image processing apparatus it is possible to seamlessly switch between the display of a panoramic image and the enlarged display of a display area by a trimmed image trimmed from a panoramic image or a high-resolution original image.
  • the display control unit further moves the position of the corresponding region in the original image when the corresponding region in the original image is displayed on the display unit. Is received, the position of the corresponding region to be trimmed is moved from the original image in accordance with the moving operation.
  • the image data of the peripheral area outside the display surface of the display unit the area outside the corresponding area
  • the position for checking the details of the subject around the imaging unit can be freely set. Can be changed.
  • the display control unit has moved the position of the corresponding region to the image edge on the side adjacent to the other image in one of the original images adjacent to each other by the moving operation.
  • a pause process for temporarily stopping the movement of the position of the corresponding area and a movement operation for moving the position of the corresponding area subjected to the pause process from one image to the other image
  • a first transition process for transitioning the first position of the corresponding region at the image end of the second image to the second position of the other image corresponding to the first position.
  • the display content of the display unit can be updated to the trimmed image trimmed from the other image without making the user aware of the connected portion of the individual images of the panoramic image.
  • the image acquisition unit acquires a plurality of captured images generated by performing imaging every time the imaging unit rotates by a certain rotation angle in the horizontal direction.
  • the imaging unit generates a plurality of captured images by performing a first imaging every time the imaging unit rotates by a certain rotation angle in the horizontal direction, and performs the first imaging.
  • the second imaging is performed at a position further rotated by 1 ⁇ 2 of the rotation angle from the position of the first imaging to generate a plurality of captured images, and the image acquisition unit performs the first imaging of the imaging unit.
  • a plurality of captured images generated and a plurality of captured images generated by the second imaging are acquired, and the panoramic image generation unit is obtained by imaging one of the first imaging and the second imaging.
  • the panorama image is generated from the plurality of captured images, and the image storage control unit obtains the plurality of captured images obtained by one imaging as the first original image and is obtained by the other imaging different from the one imaging.
  • the plurality of captured images are As a null image, an original image including the first original image and the second original image is stored in the image storage unit, and the display control unit is configured to move the first original image whose corresponding regions are adjacent to each other by a moving operation.
  • the pause processing for temporarily stopping the movement of the position of the corresponding region and the position of the corresponding region subjected to the pause processing are
  • the first position of the corresponding region at the image end in one image is captured between the one image and the other image.
  • a second transition process for transitioning to a third position corresponding to the first position in the second original image is performed.
  • the panoramic image generation unit is a panoramic image in which a plurality of reduced images are connected in a state where they are adjacent to each other in an imaging order by the imaging unit, and the imaging is performed.
  • a panoramic image is generated in which overlapping regions between adjacent images of a plurality of reduced images that overlap a part of the range are cut with a preset width from mutually opposing image ends of the overlapping regions between adjacent images.
  • the preset width is set to a size in which a part of adjacent images of a plurality of reduced images subjected to cut processing overlap. This prevents a part of the subject existing in the image before the cutting process from being lost due to the cutting process.
  • the panorama image generation unit includes a panorama in which a plurality of reduced images are connected in a state where overlapping regions between adjacent images in which a part of the imaging range overlaps are overlapped.
  • the panorama image generator generates a panorama image and has an origin coordinate storage controller that stores the origin coordinates of each of the plurality of reduced images in the panorama image in the origin coordinate storage unit.
  • the control unit determines whether the image storage unit is based on the display area set by the display area setting unit and the origin coordinates stored in the origin coordinate storage unit.
  • the original image including the corresponding area is retrieved from the original images stored in the image, and the corresponding area of the retrieved original image is trimmed and displayed on the display unit. Even when a panoramic image is generated by a general generation method, the display of the panoramic image and the enlarged display of the display area by the trimmed image trimmed from the panoramic image or the high-resolution original image can be switched seamlessly. Therefore, it is possible to view the subject and confirm details.
  • An image processing apparatus includes a projective conversion unit that performs a projective conversion process for performing a projective conversion on the same projection plane based on an angle of view of an imaging unit with respect to a plurality of captured images acquired by the image acquisition unit.
  • the panorama image generation unit generates a panorama image by connecting a plurality of reduced images generated from the plurality of captured images subjected to the projective conversion processing by the projective conversion unit, and the image storage control unit uses the projective conversion unit as an original image.
  • a plurality of captured images that have undergone projective transformation processing are stored in the image storage unit. Thereby, the influence of tilt is suppressed, and the shift of the position of the subject between adjacent images of a plurality of captured images is reduced.
  • the display control unit shows the entire panoramic image on a part of the display surface of the display unit when the corresponding region is trimmed from the original image and displayed on the display unit. Display the entire image. Thereby, even when the trimmed image trimmed from the corresponding area of the original image is displayed on the display unit, the user can grasp the entire panoramic image.
  • the display control unit causes a range image indicating the range of the display area to be superimposed and displayed on the entire image.
  • An imaging apparatus for achieving the object of the present invention includes an imaging unit, a rotation mechanism that rotates the imaging range of the imaging unit in the horizontal direction, and the above-described image processing apparatus.
  • the imaging unit has an orientation detection function, and starts imaging from a preset orientation. Thereby, it is possible to easily determine in which direction each of the plurality of reduced images constituting the panoramic image is an image of the subject in which the image is captured.
  • An image processing method for achieving an object of the present invention is a plurality of captured images obtained by continuously performing imaging while moving an imaging range of an imaging unit in a horizontal direction, and An image acquisition step for acquiring a plurality of captured images obtained by performing imaging while overlapping a part of the imaging range before and after, and a plurality of captured images reduced from the plurality of captured images acquired in the image acquisition step
  • a panorama image generation step for generating a panoramic image in which the plurality of reduced images are connected, and an image storage control step for storing the plurality of captured images before the reduction processing in the panorama image generation step in the image storage unit as original images
  • a display control step for displaying the panorama image generated in the panorama image generation step on the display unit, and a panorama image displayed on the display unit A display area setting step for setting a display area to be enlarged and a determination step for determining whether or not the display area set in the display area setting step is within the imaging range of the original image.
  • the display control step crops the display area from the panoramic image when the determination step determines NO, displays the enlarged image on the display unit, and determines that the determination step is within the imaging range of the original image.
  • a corresponding area corresponding to the display area is trimmed from the original image stored in the storage unit and displayed on the display unit.
  • a program for achieving the object of the present invention is a plurality of captured images obtained by continuously performing imaging while moving the imaging range of the imaging unit in the horizontal direction with the computer of the image processing apparatus,
  • an image acquisition unit that acquires a plurality of captured images obtained by executing imaging while overlapping a part of the imaging range before and after continuous imaging, and a plurality of captured images acquired by the image acquisition unit
  • a panoramic image generation unit that generates a panoramic image in which a plurality of reduced images obtained by reducing a captured image are connected, and an image that stores a plurality of captured images before reduction processing by the panoramic image generation unit as original images in an image storage unit
  • a display area setting unit for setting a display area to be set, and a program for causing the display area set by the display area setting unit to function as a determination unit for determining whether or not the image area
  • the display control unit A corresponding area corresponding to the display area is trimmed from the stored original image and displayed on the display unit.
  • a computer-readable non-transitory tangible medium recording the above program is also included in the aspect of the present invention.
  • An image processing apparatus, an imaging apparatus, an image processing method, and a program according to the present invention provide a bird's-eye view of a subject from a plurality of captured images obtained by continuously performing imaging while moving an imaging range of an imaging unit in a horizontal direction. Enables detailed confirmation.
  • (A) to (D) are display controls when the determination unit determines that the display area is within the imaging range of the original image data, and when the display area is set to straddle two pieces of reduced image data. It is explanatory drawing for demonstrating the enlarged display of the display area by a part. It is explanatory drawing for demonstrating the sub screen displayed on the display surface of a display part at the time of a superimposition display mode. It is a flowchart which shows the flow of the display process of the panorama image data by the imaging device of 1st Embodiment, and the enlarged display process of a display area.
  • (A), (B) is explanatory drawing for demonstrating the 1st transition process of the position of the corresponding area
  • (C), (D) is a corresponding area
  • It is a flowchart which shows the flow of the display process of the trimming image data by the imaging device of 2nd Embodiment. It is a block diagram which shows the structure of the imaging device of 3rd Embodiment.
  • (A) is an explanatory view showing an example of divided imaging of the surrounding subject by the imaging unit of the first embodiment
  • (B) is divided imaging of the surrounding subject by the imaging unit of the third embodiment. It is explanatory drawing which showed an example.
  • (A) to (C) are explanatory diagrams for explaining the flow from projective transformation processing to panoramic image data generation processing in the fourth embodiment. It is explanatory drawing for demonstrating the 2nd transition process by the display control part of 3rd Embodiment.
  • 10 is a flowchart illustrating a flow of display processing of trimmed image data by the imaging apparatus according to the third embodiment. It is a block diagram which shows the structure of the imaging device of 4th Embodiment.
  • FIG. 1 is a schematic diagram of an imaging apparatus 10 according to the first embodiment. As shown in FIG. 1, the image pickup apparatus 10 is roughly provided with an image pickup unit 11 and a tablet terminal 12 corresponding to the image processing apparatus of the present invention.
  • the image pickup unit 11 has a turntable 16 (also referred to as a pan head) corresponding to the rotation mechanism of the present invention and an image pickup unit 18 for picking up an image of a subject.
  • the imaging unit 18 includes an optical system, an imaging device, and an image generation circuit.
  • the imaging unit 18 receives and captures subject light transmitted through the optical system, and the image generation circuit reads out from the imaging device. Based on the signal, the captured image data 20 of the subject corresponding to the captured image of the present invention is generated.
  • the turntable 16 rotates the imaging unit 11 in the pan direction by rotating the imaging unit 11 in the pan direction (horizontal direction) indicated by an arrow A in the drawing. Further, the imaging unit 18 can rotate in the tilt direction (vertical direction) indicated by an arrow B in the drawing within the imaging unit 11. Therefore, the imaging unit 11 is a so-called pan / tilt camera capable of rotating the imaging direction (imaging optical axis) by the imaging unit 18 in the pan direction and the tilt direction.
  • the imaging unit 11 can divide and image subjects around the imaging unit 11 by continuously imaging while being rotated (panned) in the pan direction by the turntable 16.
  • the “horizontal direction” in this specification includes a direction parallel to a plane perpendicular to the rotation axis for rotating the imaging unit 11 (imaging unit 18).
  • FIG. 2 is an explanatory diagram for explaining an example of divided imaging of a subject around the imaging unit 11.
  • the image pickup unit 11 picks up a plurality of images of surrounding subjects at each rotation angle position while being rotated by a predetermined (including substantially constant) rotation angle by the turntable 16 in advance.
  • the captured image data 20 is generated. That is, by continuously performing imaging while moving the imaging range of the imaging unit 11 (indicated by a dotted line in the drawing) in the pan direction (horizontal direction), the subject around the imaging unit 11 is divided and imaged.
  • numbers (1) to (8) in parentheses in the figure indicate the order of imaging by the imaging unit 11.
  • the above-described constant rotation angle is set to an angle at which a part of the imaging range of the imaging unit 18 overlaps (displayed in a hatched area in the drawing) before and after successive imaging.
  • This rotation angle is determined based on the angle of view of the imaging unit 18 of the imaging unit 11.
  • the angle of view of the imaging unit 18 is obtained based on the focal length of the optical system, the size of the imaging surface of the imaging device, and the like.
  • the angle of view (horizontal angle of view) of the imaging unit 11 in the drawing is less than 90 °, but may be 90 ° or more.
  • the captured image data 20 obtained by the first imaging in the time series is obtained by the second imaging and the last imaging in the time series, respectively.
  • the imaging unit 11 is rotated by a certain rotation angle by the turntable 16, but if the condition that a part of the imaging range of the imaging unit 18 overlaps before and after successive imaging is satisfied, It is not always necessary to rotate the imaging unit 11 at a constant rotation angle.
  • the tablet terminal 12 acquires a plurality of captured image data 20 obtained by dividing and imaging the surrounding subject from the imaging unit 11, and a panoramic image described later based on the plurality of captured image data 20.
  • Data 43 (see FIG. 7) is generated, and the panorama image data 43 is displayed or a part of the data is enlarged.
  • the casing of the tablet terminal 12 is provided with an operation unit 27 and a touch panel type display unit 28.
  • FIG. 3 is a block diagram illustrating a configuration of the tablet terminal 12 according to the first embodiment.
  • the tablet terminal 12 includes a control unit 25, a storage unit 26, an operation unit 27, a display unit 28, and an interface 29.
  • the configuration of the tablet terminal 12 that is not related to the generation and display of the panoramic image data 43 is not shown.
  • the control unit 25 is configured by various arithmetic units, processing units, and memories including, for example, a CPU (Central Processing Unit), and is read from the storage unit 26 based on control signals from the operation unit 27 and the display unit 28. By executing various programs, the overall operation and processing of the tablet terminal 12 are comprehensively controlled.
  • a CPU Central Processing Unit
  • the storage unit 26 stores various programs for the control unit 25 to execute processing.
  • the storage unit 26 stores a program 30 for causing the control unit 25 to execute generation and display of panoramic image data 43 (see FIG. 7) and a partial enlarged display thereof. Further, the storage unit 26 stores later-described original image data 55 input from the control unit 25. Accordingly, the storage unit 26 of this example functions as the image storage unit of the present invention.
  • the operation unit 27 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 27 is a push button type switch that is turned on when pressed with a finger or the like, and turned off by a restoring force such as a spring when the finger is released.
  • the control unit 25 detects an operation on the operation unit 27 and executes a process according to the operation.
  • the display unit 28 displays images and character information including still images and moving images, visually transmits information to the user, and detects user operations on the displayed information. It is a touch panel.
  • the display unit 28 includes a display panel 32 and an operation panel 33 arranged to cover the display panel 32.
  • the display panel 32 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 33 is a device that is placed so that an image displayed on the display surface of the display unit 28 (display panel 32) is visible and detects one or more coordinates operated by a user's finger or stylus. is there.
  • a detection signal generated due to the operation is output from the operation panel 33 to the control unit 25.
  • the control unit 25 detects a user operation on the operation panel 33 based on a detection signal input from the operation panel 33, and executes a process corresponding to the operation.
  • a communication interface that is wired or wirelessly connected to the imaging unit 11 a communication interface that is connected to the imaging unit 11 via a communication network such as the Internet, and the like are used.
  • the interface 29 acquires the plurality of captured image data 20 described above from the imaging unit 11 and outputs the acquired captured image data 20 to the control unit 25.
  • a plurality of captured image data 20 stored in advance in a server, memory card, or the like may be acquired.
  • a communication interface for communication connection with a server or a card interface loaded with a memory card is used as the interface 29, a communication interface for communication connection with a server or a card interface loaded with a memory card is used.
  • the control unit 25 (corresponding to the computer of the image processing apparatus of the present invention) executes the program 30 read from the storage unit 26, thereby performing an image acquisition unit 35, a projective conversion unit 36, a cut processing unit 37, and a panorama. It functions as an image generation unit 38, a display control unit 39, an image storage control unit 49, a display area setting unit 51, and a determination unit 52.
  • the image acquisition unit 35 functions as the image acquisition unit of the present invention together with the interface 29 described above.
  • the image acquisition unit 35 acquires the plurality of captured image data 20 from the imaging unit 11 via the interface 29 and outputs the plurality of captured image data 20 to the projective conversion unit 36. Further, the image acquisition unit 35 acquires information on the angle of view (imaging range) of the imaging unit 18 from the imaging unit 11 and outputs the information to the projective conversion unit 36.
  • FIG. 4 is an explanatory diagram for explaining an example of projective transformation processing by the projective transformation unit 36.
  • the projective conversion unit 36 performs a projective conversion process on the plurality of captured image data 20 input from the image acquisition unit 35 to perform projective conversion on the same projection plane based on the angle of view of the imaging unit 11.
  • a plurality of converted image data 41 (see FIG. 5) is generated.
  • the projection conversion unit 36 of this example performs cylindrical conversion processing for cylindrical conversion to an image obtained by projecting (projecting) a plurality of captured image data 20 onto the cylindrical surface CS, which is the same projection plane, as the projection conversion processing.
  • Note that a specific method of the cylindrical conversion process is disclosed in the above-described Patent Document 1, and thus a specific description thereof is omitted here.
  • FIG. 5A is a front view of the captured image data 20 before the projective conversion process (cylindrical conversion process), and FIG. 5B is a front view of the converted image data 41 after the projective conversion process. Note that the converted image data 41 corresponds to a captured image that has undergone the projective transformation processing of the present invention.
  • the subject in each captured image data 20 is a so-called tilt (the inclination of the imaging target surface with respect to the imaging optical axis of the imaging unit 18). Therefore, the position of the subject is deviated between adjacent image data in which a part of the imaging range overlaps.
  • the influence of tilt is suppressed, and the displacement of the subject position between adjacent image data is reduced.
  • the projective conversion unit 36 outputs the plurality of converted image data 41 subjected to the projective conversion process to the cut processing unit 37 and the image storage control unit 49, respectively.
  • the image storage control unit 49 stores a plurality of pieces of converted image data 41 after the projection conversion processing by the projection conversion unit 36 and before the cut processing by the cut processing unit 37 described later as a plurality of original image data 55 in the storage unit 26. .
  • FIG. 6A is a front view of the converted image data 41 before the cut processing by the cut processing unit 37
  • FIG. 6B is a front view of the cut image data 41A after the cut processing by the cut processing unit 37. is there.
  • the cut processing unit 37 has a plurality of converted images in which part of the imaging range overlaps each other.
  • An overlap region DR between adjacent image data in the data 41 is determined.
  • the range (width) of the overlapping region DR between adjacent image data is the angle of view and rotation of the imaging unit 11. It is obtained from the angle.
  • the cut processing unit 37 cuts the overlapping region DR between the adjacent image data with a predetermined width from the mutually opposing image ends with respect to the plurality of converted image data 41. Processing is performed to generate a plurality of cut image data 41A. Then, the cut processing unit 37 outputs the plurality of cut image data 41A after the cut processing to the panoramic image generation unit 38 (see FIG. 3).
  • the “preset width” when the overlapping region DR is cut is large so that a part of the adjacent image data (adjacent images) overlaps in the plurality of cut image data 41A after the cut processing. It is preferable that it is set. In this case, it is possible to prevent a part of the subject existing in the plurality of converted image data 41 before the cutting process from being lost by the cutting process. Thus, the entire 360 ° object around the imaging unit 11 can be confirmed with certainty from panoramic image data 43, which will be described later, generated based on the plurality of cut image data 41A.
  • the “preset width” is set to a size in which the amount of overlap (overlap width) between adjacent image data of the plurality of cut image data 41A becomes smaller. This is because, in panorama image data 43 described later, the smaller the amount of overlap between adjacent image data, the less discomfort to the user.
  • FIG. 7 is a front view of the panorama image data 43 generated by the panorama image generator 38 (see FIG. 3).
  • the panoramic image generation unit 38 generates a plurality of reduced image data 41B by reducing each of the plurality of cut image data 41A input from the cut processing unit 37, and the generated plurality of reduced images.
  • the panoramic image data 43 is generated by concatenating the data 41 ⁇ / b> B in a state in which they are adjacent to each other in the order of image capturing by the image capturing unit 11.
  • the reduction ratio when the cut image data 41A is reduced to the reduced image data 41B can be set so that when the panorama image data 43 is displayed on the display unit 28, the user can display almost the entire panorama image data 43 (an area exceeding a certain ratio). ) Is preferable, and is determined based on the resolution of the display unit 28 (display panel 32).
  • the size of the interval between the adjacent image data of the plurality of reduced image data 41B in the panorama image data 43 is predetermined in order to give the user a visual effect that the adjacent image data is continuous. It is preferable that the size is limited to within the range.
  • This predetermined range is, for example, a range narrower than the width of the overlapping region DR (not shown in FIG. 7) between adjacent image data.
  • the panorama image data 43 is generated by sequentially performing cut processing, reduction processing, and connection processing on the plurality of converted image data 41, but the method of generating the panorama image data 43 is limited to this. It is not something.
  • the cut image data 41A is connected at intervals in the above-described imaging order to generate ultra-high resolution panoramic image data (not shown), and then the panoramic image data (not shown) is reduced.
  • the panoramic image data 43 may be generated.
  • the panorama image generation unit 38 does not perform the reduction process on the above-described panoramic image data (not shown), and the display control unit 39 (described later) reduces the panorama image data.
  • the display control unit 39 functions as a part of the panoramic image generation unit of the present invention.
  • the panoramic image generation unit 38 generates the panoramic image data 43 in which the plurality of reduced image data 41B that have been subjected to the cut processing are connected in a state where they are adjacent to each other in the above-described imaging order. Then, the panorama image generation unit 38 outputs the generated panorama image data 43 to the display control unit 39 (see FIG. 3).
  • FIG. 8 is an explanatory diagram for explaining the display processing of the panoramic image data 43 by the display control unit 39 (see FIG. 3).
  • FIG. 9 is an explanatory diagram for explaining a modification of the display processing of the panoramic image data 43 by the display control unit 39.
  • the display control unit 39 outputs the panorama image data 43 input from the panorama image generation unit 38 to the display unit 28 (display panel 32) shown in FIG.
  • the data 43 is displayed on the display unit 28 as a whole (including almost the whole display).
  • the size of the panoramic image data 43 displayed on the display surface of the display unit 28 can be changed. For example, as shown in FIG. 9, when the display control unit 39 displays the panorama image data 43 on the display unit 28, the panorama image data 43 can be enlarged and only a part thereof can be displayed on the display unit 28.
  • the display area setting unit 51 functions as the display area setting unit 51 of the present invention together with the operation panel 33 described above.
  • the display area setting unit 51 selects an area selected by the user from the panoramic image data 43 on the display surface of the display unit 28 by operating the operation panel 33 while the panoramic image data 43 is displayed on the display unit 28. It is set as a display area VR to be enlarged and displayed in the panorama image data 43.
  • the display area VR set to a size within the range of the angle of view of the imaging unit 18, that is, within the imaging range of the original image data 55, and the imaging area of the original image data 55.
  • a display region VR set to a size that does not exist is illustrated.
  • Setting range information indicating the setting range of the display area VR by the display area setting unit 51 is output from the display area setting unit 51 to the determination unit 52.
  • the determination unit 52 determines that the display area VR set by the display area setting unit 51 is within the imaging range of the original image data 55 (that is, the image of the imaging unit 18. It is determined whether the size is within a corner range.
  • the size of the imaging range of the original image data 55 on the panoramic image data 43 is obtained.
  • the determination unit 52 determines that the horizontal and vertical sizes of the display area VR are the horizontal and vertical sizes of the original image data 55 on the panoramic image data 43 (the horizontal field angle and the vertical image of the imaging unit 18). If the display area VR is below each of the corner ranges, it is determined that the display area VR is within the imaging range of the original image data 55. Conversely, the determination unit 52 determines that both the horizontal size and the vertical size of the display area VR are the horizontal size and the vertical size of the original image data 55 on the panorama image data 43 (the horizontal field angle of the image pickup unit 18 and If it is not less than the range of the vertical angle of view), it is determined that the display area VR does not fall within the imaging range of the original image data 55 (ie, no). Then, the determination unit 52 outputs the determination result to the display control unit 39.
  • the display control unit 39 When the display area VR is set by the display area setting unit 51, the display control unit 39 enlarges and displays the display area VR in the panorama image data 43 on the display unit 28. At this time, the display control unit 39 changes the enlarged display method of the display area VR based on the determination result input from the determination unit 52.
  • FIG. 10 is an explanatory diagram for explaining an enlarged display of the display area VR by the display control unit 39 when the determination unit 52 determines NO.
  • the display control unit 39 trims a region corresponding to the display region VR from the panoramic image data 43 and displays the trimmed trimmed image data 56 on the display unit. The image is enlarged and displayed in accordance with the screen size of 28 (display panel 32).
  • FIG. 11 is an explanatory diagram for explaining an enlarged display of the display region VR by the display control unit 39 when the determination unit 52 determines that the display region VR is within the imaging range of the original image data 55.
  • the display control unit 39 firstly selects the original image data corresponding to the reduced image data 41B in which the display area VR is set from the original image data 55 stored in the storage unit 26. 55 is searched.
  • the display control unit 39 determines a corresponding area CR corresponding to the display area VR in the searched original image data 55. Since the cut width of the cut image data 41A and the reduction ratio of the reduced image data 41B are known, the display control unit 39 uses the position coordinates and the range of the display area VR in the reduced image data 41B in the original image data 55. The position coordinates of the corresponding region CR and the range thereof can be determined.
  • the display control unit 39 trims the corresponding region CR from the retrieved original image data 55 and causes the display unit 28 to display the trimmed image data 57 of the corresponding region CR.
  • the display control unit 39 enlarges or reduces the trimmed image data 57 according to the resolution of the display unit 28. Also good.
  • FIG. 11 is an explanatory diagram for explaining an enlarged display of the display area VR by the display control unit 39 when is set so as to straddle two pieces of reduced image data 41B.
  • the display control unit 39 first displays the area in the display area VR (hereinafter referred to as the area in the area) in the two reduced image data 41B set so as to straddle the display area VR. ) Is larger, and the original image data 55 corresponding to the reduced image data 41B having the larger area area is searched from the storage unit 26.
  • the display control unit 39 determines the corresponding region CR corresponding to the display region VR from the retrieved original image data 55.
  • the corresponding region CR corresponding to the display region VR in this case corresponds to the display region VR1 at the position translated from the initially set position of the display region VR into the reduced image data 41B having the larger area area.
  • Region CR the amount of parallel movement is the width of the display area VR outside the reduced image data 41B having the larger area area.
  • the display control unit 39 trims the corresponding area CR corresponding to the display area VR1 from the retrieved original image data 55, and the trimmed image data 57 of the corresponding area CR is obtained. It is displayed on the display unit 28.
  • the display control unit 39 displays the trimmed image data 57 of the corresponding region CR trimmed from the original image data 55 on the display unit 28, the display control unit 39 displays a sub-screen 59 (showing the range of the display region VR in the panoramic image data 43). 13) is displayed on a part of the display surface of the display unit 28.
  • FIG. 13 is an explanatory diagram for explaining the sub-screen 59 displayed on the display surface of the display unit 28 in the superimposed display mode.
  • the display control unit 39 receives an input of a sub-screen display instruction via the operation unit 27 or the operation panel 33, the display control unit 39 generates reduced panorama image data 43s obtained by reducing the panorama image data 43, and the reduced panorama image data 43s is generated.
  • the included sub screen 59 is displayed on a part of the display surface of the display unit 28.
  • the reduced panorama image data 43s is image data indicating the entire panorama image data 43 (including almost the entire panorama image data 43), and corresponds to the entire image of the present invention. Even if the trimmed image data 57 is displayed on the display unit 28 by the display of the sub screen 59, the user can grasp the entire panoramic image data 43.
  • the display control unit 39 indicates the range of the display area VR set by the display area setting unit 51 on the reduced panorama image data 43 s in the sub screen 59.
  • the range image VRs is displayed in a superimposed manner. Thereby, the user can easily determine which region of the panoramic image data 43 is the enlarged display of the trimmed image data 57 displayed on the display unit 28.
  • FIG. 14 is a flowchart showing the flow of the panorama image data 43 display process and the display area VR enlargement display process (the image processing method of the present invention) by the imaging apparatus 10 of the first embodiment.
  • the imaging unit 11 captures an image of a subject in an arbitrary direction among the surrounding subjects, and generates captured image data 20 (step S1).
  • the imaging unit 11 is rotated by a predetermined fixed angle by the turntable 16 (NO in step S2, step S3), the surrounding subject is imaged again (step S1). Accordingly, the second imaging by the imaging unit 11 is executed in a state where the first imaging and a part of the imaging range are overlapped, and new captured image data 20 is generated by the imaging unit 11.
  • the surrounding subject is imaged at each rotation angle position to generate a plurality of captured image data 20 (NO in step S2).
  • a subject of 360 ° around the imaging unit 11 is imaged by the imaging unit 11, and imaging by the imaging unit 11 ends (YES in step S2).
  • a plurality of captured image data 20 obtained by dividing and imaging 360 ° around the imaging unit 11 is obtained.
  • the control unit 25 reads the program 30 from the storage unit 26 and executes the program 30, whereby the image acquisition unit 35, the projective conversion unit 36, and the cut processing unit 37.
  • the panorama image generation unit 38, the display control unit 39, the image storage control unit 49, the display area setting unit 51, and the determination unit 52 function.
  • the image acquisition unit 35 acquires a plurality of captured image data 20 from the imaging unit 11 via the interface 29 (step S4, corresponding to the image acquisition step of the present invention).
  • the image acquisition unit 35 may acquire a plurality of captured image data 20 at the same time after the image capturing by the image capturing unit 11 is completed, or capture the captured image data 20 from the image capturing unit 11 every time the image capturing unit 11 captures an image. You may acquire sequentially.
  • the plurality of captured image data 20 is output from the image acquisition unit 35 to the projective conversion unit 36.
  • the projection conversion unit 36 that receives the input of the plurality of captured image data 20 performs the projection conversion process (cylindrical conversion process) on the plurality of captured image data 20 as shown in FIGS. 4 and 5 described above. Then, a plurality of converted image data 41 is generated (step S5). Thereby, the influence of tilt is suppressed, and the shift of the position of the subject between the adjacent image data of the plurality of converted image data 41 is reduced.
  • the plurality of converted image data 41 is output from the projective conversion unit 36 to the cut processing unit 37 and the image storage control unit 49, respectively.
  • the image storage control unit 49 that has received the input of the plurality of converted image data 41 causes the storage unit 26 to store the plurality of converted image data 41 as a plurality of original image data 55 (step S6, image storage control step of the present invention). Equivalent).
  • the cut processing unit 37 that has received the input of the plurality of converted image data 41 sets an overlapping region DR between adjacent image data for the plurality of converted image data 41 as shown in FIG.
  • a cut process is performed in which the image edges facing each other are cut with a preset width (step S7, corresponding to the cut process step of the present invention).
  • a plurality of cut image data 41A is generated from the plurality of converted image data 41.
  • the size of the width for cutting the overlapping region DR is adjusted so that a part of the adjacent image data of the plurality of cut image data 41A overlaps. Accordingly, as described above, it is possible to prevent a part of the subject existing in the plurality of converted image data 41 before the cutting process from being lost by the cutting process.
  • the plurality of cut image data 41 ⁇ / b> A is output from the cut processing unit 37 to the panoramic image generation unit 38.
  • the panoramic image generation unit 38 that has received the input of the plurality of cut image data 41A reduces the plurality of cut image data 41A to generate a plurality of reduced image data 41B (step S8).
  • the panorama image generation unit 38 connects the plurality of generated reduced image data 41B in a state in which they are adjacent to each other in the order of image pickup by the image pickup unit 11, and is connected to the panorama image data 43. (Step S9, corresponding to the panoramic image generation step of the present invention). Since the intervals are provided when connecting the reduced image data 41B, even if some of the adjacent image data of the reduced image data 41B overlap, it is possible to reduce the sense of discomfort given to the user. .
  • panorama image data 43 is generated from a plurality of reduced image data 41B
  • a general connection process in which overlapping regions DR between successive reduced image data 41B are connected in an overlapped state
  • panorama synthesis processing the subject in either the near or near area present in the overlapping region DR is not normally synthesized, the subject becomes a double image, or a step ( Misalignment) is prevented.
  • the method of generating the panorama image data 43 by the panorama image generator 38 may be changed as appropriate. In this way, panoramic image data 43 having a size that can be displayed on the display surface of the display panel 32 is obtained.
  • the panorama image data 43 is output from the panorama image generator 38 to the display controller 39.
  • the display control unit 39 that has received the input of the panorama image data 43 outputs the panorama image data 43 to the display unit 28, and the panorama image data 43 is entirely displayed on the display unit 28 as shown in FIG. It is displayed (step S10, corresponding to the display control step of the present invention). From the panoramic image data 43 displayed on the display unit 28, it is possible to overlook the entire subject around the imaging unit 11. Further, since the reduced panorama image data 43 is displayed, the amount of use of a display memory (Video ⁇ RAM) (not shown) can be saved as compared with the case of displaying the panorama image data 43 that has not been reduced. it can.
  • a display memory Video ⁇ RAM
  • the determination unit 52 determines whether or not the display area VR indicated by the setting range information is within the imaging range of the original image data 55 (within the angle of view of the imaging unit 18). Then, this determination result is output to the display control unit 39 (step S12, corresponding to the determination step of the present invention).
  • the display control unit 39 trims the region corresponding to the display region VR from the panoramic image data 43 as illustrated in FIG. 10 described above. (NO in step S12, step S13). Then, the display control unit 39 outputs the trimmed image data 56 trimmed from the panoramic image data 43 to the display unit 28, and displays the trimmed image data 56 on the display unit 28 in an enlarged manner (step S14, display control of the present invention). Equivalent to a step). Thereby, the user can confirm the details of the selected display area VR.
  • the display control unit 39 receives an input of a determination result from the determination unit 52 that the display area VR is within the imaging range of the original image data 55 (within the range of the angle of view of the imaging unit 18), this display is displayed.
  • the original image data 55 corresponding to the reduced image data 41B in which the region VR is set is searched from the storage unit 26 (YES in step S12).
  • the display control unit 39 trims the corresponding area CR corresponding to the display area VR from the retrieved original image data 55 as shown in FIG. 11 (step S15).
  • the display control unit 39 sets the above-described region in the two reduced image data 41B when the display region VR is set so as to straddle the two reduced image data 41B.
  • the larger inner area is discriminated, and the original image data 55 corresponding to the larger inner area is searched from the storage unit 26.
  • the display control unit 39 selects the corresponding region CR corresponding to the display region VR1 shown in FIG. 12B as the corresponding region CR corresponding to the display region VR from the retrieved original image data 55. Trim.
  • the display control unit 39 outputs the trimmed image data 57 trimmed from the original image data 55 to the display unit 28, and displays the trimmed image data 57 on the display unit 28 (step S16, in the display control step of the present invention). Equivalent). In this way, by displaying the trimmed image data 57 trimmed from the high-resolution original image data 55 on the display unit 28, the user can confirm the details of the selected display area VR.
  • step S11 When the user resets the display area VR by operating the operation panel 33 or the like, the processes after step S11 are repeatedly executed (YES in step S30).
  • the display of the panorama image data 43 having the resolution corresponding to the size of the display surface of the display unit 28 and the display by the trimming image data 56 or the trimming image data 57 are performed. It is possible to seamlessly switch between enlarged display of the region VR.
  • the trimmed image data 57 is high-resolution data trimmed from the original image data 55, by switching between the display of the panoramic image data 43 and the display of the trimmed image data 57, the viewability and the reliable visual recognition of the subject are achieved. And both. As a result, a bird's-eye view and details can be confirmed.
  • the cut is performed without performing a general connection process (panorama synthesis process) in which the overlapping regions DR between the consecutive reduced image data 41B before and after are connected in an overlapped state. Since the panorama image data 43 is generated by connecting the plurality of processed reduced image data 41B adjacent to each other in the order of image pickup by the image pickup unit 11, the panorama image data 43 is avoided. be able to. In addition, the panorama image data 43 is easier to see than the case where the image data are simply arranged side by side and the influence of tilt is less.
  • a general connection process panorama synthesis process
  • the imaging device of the second embodiment has basically the same configuration as the imaging device 10 of the first embodiment, and the same reference numerals are given to the same functions and configurations as those of the first embodiment. The description thereof is omitted.
  • the operation panel 33 accepts a moving operation for moving the position of the corresponding region CR in the original image data 55 from the user while the trimming image data 57 is displayed on the display unit 28.
  • This moving operation is, for example, a swipe operation performed on the display surface of the display unit 28 by the user.
  • the operation panel 33 detects a swipe operation performed by the user on the display surface of the display panel 32 as a movement operation of the position of the corresponding region CR, and outputs a movement operation detection signal to the display control unit 39.
  • This movement operation detection signal includes a swipe operation direction indicating the movement direction of the position of the corresponding region CR and a swipe operation amount indicating the movement amount of the position of the corresponding region CR.
  • the display control unit 39 of the second embodiment receives a moving operation for moving the position of the corresponding region CR via the operation panel 33.
  • the display control unit 39 moves the position of the corresponding region CR to be trimmed from the original image data 55 according to the moving operation performed by the user based on the moving operation detection signal input from the operation panel 33.
  • the display control unit 39 sequentially trims the corresponding region CR at a new position from the original image data 55 and sequentially outputs the trimmed image data 57 to the display unit 28. Thereby, the trimming image data 57 displayed on the display unit 28 is updated according to the moving operation performed by the user.
  • the display control unit 39 determines the position of the corresponding region CR in one original image data 55 of the original image data 55 adjacent to each other in the other original image data 55 according to the moving operation performed by the user. Execute the first transition process to make a transition to.
  • FIGS. 15A and 15B are explanatory diagrams for explaining the first transition process of the position of the corresponding region CR between the adjacent original image data 55.
  • FIG. Here, the position of the corresponding region CR is transitioned from one original image data 55 on the left side in the drawing to the other original image data 55 on the right side in the drawing, and the size and shape of the corresponding region CR are within the overlapping region DR. It demonstrates as what is the magnitude
  • the display control unit 39 determines that the position of the corresponding region CR in the one original image data 55 on the left side in the figure is the other original on the right side in the figure by the moving operation performed by the user.
  • a pause process is performed to temporarily stop the position of the corresponding region CR.
  • the display control unit 39 When the display control unit 39 further receives a moving operation for moving the position of the corresponding region CR from one original image data 55 to the other original image data 55 via the operation panel 33 after the pause process.
  • the first transition process is executed. Specifically, as shown in FIG. 15B, the display control unit 39 sets the first position of the corresponding region CR at the image end of one original image data 55 to the other original corresponding to the first position. The transition is made to the second position in the image data 55.
  • the second position corresponding to the first position is the “overlapping area DR” of one original image data 55 when the size and shape of the corresponding area CR are within the overlapping area DR.
  • the display control part 39 can determine the y coordinate of the point P2 from the y coordinate of the point P1. Further, when an arbitrary position in the overlapping area DR is set as the origin, the x coordinate of the point P1 in the overlapping area DR of one original image data 55 and the point in the overlapping area DR of the other original image data 55 are set. It becomes the same coordinate as the x coordinate of P2. For this reason, the display control unit 39 can determine the x coordinate of the point P2 from the x coordinate of the point P1.
  • the display control unit 39 determines the second position in the other original image data 55 corresponding to the first position from the first position of the corresponding region CR in the one original image data 55. As a result, the first transition process of the position of the corresponding region CR is executed.
  • 15C and 15D are explanatory diagrams for explaining the first transition process when the corresponding region CR has a size or shape that does not fit in the overlapping region DR.
  • the display control unit 39 when the position of the corresponding region CR in one original image data 55 is moved to the image end by the moving operation performed by the user, the display control unit 39 performs the above-described pause processing. I do.
  • the display control unit 39 further receives a moving operation for moving the position of the corresponding region CR from one original image data 55 to the other original image data 55 via the operation panel 33 after the suspension process.
  • the first transition process is executed.
  • the display control unit 39 changes the first position of the corresponding region CR in one original image data 55 to the second position in the other original image data 55 corresponding to the first position. .
  • the second position corresponding to the first position is the other original image data corresponding to the overlapping area DR (indicated by hatching in the figure) in the corresponding area CR of the one original image data 55.
  • 55 is a position including an overlapping region DR (indicated by hatching in the figure). That is, before and after the first transition process, the overlapping area DR included in the corresponding area CR in one original image data 55 corresponds to the overlapping area DR included in the corresponding area CR in the other original image data 55. There is a relationship.
  • the display control unit 39 determines the y coordinates of the points L2 and R2 from the y coordinates of the points L1 and R1.
  • the display control unit 39 determines the coordinates of the image edge on the side facing the original image data 55 in the other original image data 55 as the x coordinate of the point L2 corresponding to the x coordinate of the point L1. Further, the display control unit 39 determines a value obtained by adding the size of the width in the x direction of the corresponding region CR to the x coordinate of the point L2 as the x coordinate of the point R2.
  • the display control unit 39 determines the other position corresponding to the first position from the first position of the corresponding region CR in one original image data 55 and the width of the corresponding region CR in the x direction. A second position in the original image data 55 is determined, and a first transition process of the position of the corresponding region CR is executed.
  • the display control unit 39 trims the corresponding region CR from the other original image data 55 after the first transition process, and outputs the trimmed trimmed image data 57 to the display unit 28. Thereby, the trimming image data 57 displayed on the display unit 28 is updated according to the moving operation performed by the user.
  • FIG. 16 is a flowchart showing a flow of display processing of the trimmed image data 57 by the imaging apparatus of the second embodiment. Since the processing up to step S16 is basically the same as the processing up to step S16 shown in FIG. 14 of the first embodiment described above, a detailed description thereof is omitted here.
  • step S16 When the user who has confirmed the trimmed image data 57 displayed on the display unit 28 in step S16 performs a swipe operation on the display surface in order to confirm the image data of the peripheral area outside the display surface of the display unit 28, This swipe operation is detected by the operation panel 33 as an operation for moving the position of the corresponding region CR. Then, the operation panel 33 outputs a movement operation detection signal to the display control unit 39. Thereby, the display control unit 39 accepts a moving operation for moving the position of the corresponding region CR via the operation panel 33 (step S17).
  • the display control unit 39 moves the position of the corresponding area CR in the original image data 55 based on the movement operation detection signal from the operation panel 33, and moves the corresponding area of the new position from the original image data 55.
  • the CR is trimmed, and trimmed image data 57 is sequentially output to the display unit 28 (step S18).
  • the trimming image data 57 displayed on the display unit 28 is updated in accordance with the moving operation (step S19).
  • the processing from step S17 to step S19 is repeated until the position of the corresponding region CR reaches the image end of the original image data 55 by the moving operation (NO in step S20).
  • the display control unit 39 determines that the position of the corresponding region CR in one original image data 55 is changed to the other original image data by the moving operation.
  • a pause process for temporarily stopping the position of the corresponding region CR is performed (YES in step S20, step S21). If the user does not perform a moving operation for moving the position of the corresponding region CR toward the other original image data 55 on the operation panel 33 after the pause processing, the processing from step S17 to step S21 is repeated. It is executed (NO in step S22).
  • step S22 the display control unit 39 that has received this moving operation.
  • the first transition process YES in step S22.
  • the first position of the corresponding region CR at the image end in one original image data 55 is as shown in FIG. 15B or FIG.
  • the transition is made to the second position in the other original image data 55 corresponding to the first position (step S23).
  • the display control unit 39 trims the corresponding region CR from the other original image data 55 and outputs new trimmed image data 57 to the display unit 28 (step S24). Thereby, the display on the display unit 28 is updated to the trimmed image data 57 trimmed from the other original image data 55 (step S25).
  • step S17 is repeatedly executed until the user finishes the moving operation (step S26).
  • the position of the corresponding region CR to be trimmed in the original image data 55 is moved in accordance with the movement operation of the user. Accordingly, the display of the trimmed image data 57 on the display surface of the display unit 28 can be updated, and the position for confirming the details of the subject around the imaging unit 11 can be freely changed.
  • the first transition process is performed through the pause process, so that the panorama image data 43
  • the display content of the display unit 28 can be updated to the trimmed image data 57 trimmed from the other original image data 55 without making the user aware of the gaps (slits) between the individual images.
  • the user can be informed that the first transition process of the corresponding region CR is performed, and the display on the display unit 28 is displayed on the other side.
  • the original image data 55 is switched to the trimmed image data 57, it is possible to reduce a sense of discomfort given to the user.
  • FIG. 17 is a block diagram illustrating a configuration of an imaging apparatus 10A according to the third embodiment.
  • the imaging apparatus according to the second embodiment when the position of the corresponding region CR in one original image data 55 moves to the image end in accordance with the user's movement operation, the first transition process is performed via the pause process.
  • the imaging device 10A according to the third embodiment performs a second transition process different from the first transition process.
  • the imaging apparatus 10A is different from the second embodiment (first embodiment) in that the tablet unit 12A is different from the second embodiment (first embodiment) in that the imaging unit 11 is different in the method of divided imaging of surrounding subjects. Except for the point provided with 25A, the configuration is basically the same as that of the imaging device of the second embodiment. For this reason, the same functions and configurations as those of the above-described embodiments are denoted by the same reference numerals and description thereof is omitted.
  • FIG. 18A is an explanatory diagram showing an example of divided imaging of the surrounding subject by the imaging unit 11 of each of the above embodiments
  • FIG. 18B is the surrounding of the imaging unit 11 of the third embodiment. It is explanatory drawing which showed an example of the division
  • the imaging unit 11 of each of the above-described embodiments captures a plurality of objects around each of the rotation angle positions while rotating the rotation table 16 by the above-described constant rotation angle. Captured image data 20 is generated.
  • the imaging unit 11 of the third embodiment is rotated by the rotation table 16 by a rotation angle that is 1 ⁇ 2 of the above-mentioned fixed rotation angle.
  • a plurality of captured image data 20 is generated by imaging surrounding subjects at the positions. That is, the imaging unit 11 performs the first imaging of the surrounding subject at the position rotated by the above-described constant rotation angle by the turntable 16 as in the above embodiments, and each time the first imaging is performed. Second imaging of the surrounding subject is performed at a position further rotated from the position of the first imaging by a rotation angle that is 1 ⁇ 2 of the predetermined rotation angle. For this reason, the imaging unit 11 includes the first imaging [numbers in parentheses (1), (2)... In the figure] and the second imaging [numbers in parentheses (1A), (2A) in the figure]. Thus, a plurality of captured image data 20 that is twice as large as that in each of the above embodiments is generated.
  • control unit 25 ⁇ / b> A of the tablet terminal 12 ⁇ / b> A executes the program 30 read from the storage unit 26, so that, in addition to the display area setting unit 51 and the determination unit 52 described in the first embodiment, It functions as an image acquisition unit 35A, a projective conversion unit 36A, a cut processing unit 37A, a panoramic image generation unit 38A, a display control unit 39A, and an image storage control unit 49A.
  • the image acquisition unit 35A acquires a plurality of captured image data 20 respectively obtained by the first imaging and the second imaging from the imaging unit 11 via the interface 29, and projects the plurality of captured image data 20.
  • the data is output to the conversion unit 36.
  • 19A to 19C are explanations for explaining the flow from the projective transformation process to the panoramic image data generation process in the fourth embodiment.
  • numerals (1), (1A), (2), (2A),... With parentheses indicate the order of imaging by the imaging unit 11.
  • the captured image data 20 with parenthesized numbers (1), (2),... Is obtained by the first imaging and the captured image data with parenthesized numbers (1A), (2A),.
  • Reference numeral 20 denotes that obtained by the second imaging [see FIG. 18B].
  • the projective transformation unit 36A includes a plurality of captured image data 20 obtained by the first imaging (corresponding to one imaging of the present invention) and the second imaging.
  • Projective conversion processing (cylindrical conversion processing) is performed on each of the plurality of captured image data 20 obtained in (corresponding to the other imaging of the present invention), and two sets of a plurality of converted image data 41 are generated.
  • the projection conversion unit 36A outputs a plurality of converted image data 41 obtained by the first imaging to the cut processing unit 37A.
  • the projective conversion unit 36A outputs two sets of a plurality of converted image data 41 respectively obtained by the first imaging and the second imaging to the image storage control unit 49A.
  • the image storage control unit 49A stores a plurality of converted image data 41 corresponding to the plurality of captured image data 20 obtained by the first imaging as a plurality of first original image data 55A (see FIG. 17).
  • the image storage control unit 49A stores a plurality of converted image data 41 corresponding to the plurality of captured image data 20 obtained by the second imaging as a plurality of second original image data 55B (see FIG. 17).
  • the original image data 55 including the plurality of first original image data 55A and the second original image data 55B is stored in the storage unit 26.
  • the cut processing unit 37A performs the cut processing as shown in FIG. 6 of the first embodiment described above on the plurality of converted image data 41 obtained by the first imaging. To generate a plurality of cut image data 41A.
  • the panoramic image generation unit 38 ⁇ / b> A provides an interval in which the reduced image data 41 ⁇ / b> B obtained by reducing the plurality of cut image data 41 ⁇ / b> A input from the cut processing unit 37 ⁇ / b> A is picked up in the imaging order.
  • the method for generating the panorama image data 43 is not particularly limited.
  • the first imaging and the second imaging generate twice as many captured image data 20 as in the above embodiments, but one of the first imaging and the second imaging.
  • Panorama image data 43 is generated using the captured image data 20 obtained by the first imaging.
  • the panorama image data 43 is generated using the captured image data 20 obtained by the second imaging. Also good.
  • the display control unit 39A outputs the panorama image data 43 input from the panorama image generation unit 38A to the display unit 28 and outputs the panorama image data 43 to the display unit 28 as in the above embodiments. To display.
  • trimming image data 56 (see FIG. 10) based on the determination result of the determination unit 52.
  • trimmed image data 57 (see FIG. 11) trimmed from the corresponding region CR of the first original image data 55A is displayed on the display unit 28.
  • the display control unit 39A receives a movement operation of the position of the corresponding region CR from the operation panel 33 while the trimming image data 57 is displayed on the display unit 28, the movement control operation is performed as in the second embodiment. Accordingly, the position of the corresponding region CR to be trimmed is moved from the first original image data 55A. Then, similarly to the above-described FIG. 15A and the like, the display control unit 39A supports up to the image end in one first original image data 55A of the first original image data 55A adjacent to each other by the moving operation. When the position of the region CR has moved, the second transition process is performed after the temporary stop process described above.
  • FIG. 20 is an explanatory diagram for explaining the second transition process by the display control unit 39A of the third embodiment.
  • the position of the corresponding region CR in one first original image data 55A indicated by parenthesized numeral (2) is opposite to the other first original image data 55A indicated by parenthesized numeral (1) ( An explanation will be given by taking as an example the case of moving to the image end on the adjacent side.
  • the display control unit 39A moves the position of the corresponding area CR from one first original image data 55A to the other first original image data via the operation panel 33 after the above-described pause processing.
  • a second transition process is executed. Specifically, the display control unit 39A images the first position of the corresponding region CR at the image end in one first original image data 55A between the one and the other first original image data 55A. The transition is made to the third position corresponding to the first position in the second original image data 55B indicated by the parenthesized number (1A).
  • the point Q1 is a representative point at the first position
  • the point Q3 is a representative point at the third position.
  • a region DR (not shown) is included.
  • the range (width) of the overlapping area DR is obtained from the field angle information of the imaging unit 11 and the magnitude of the rotation angle. For this reason, as described with reference to FIG. 15 described above, by dividing the case according to whether or not the size and shape of the corresponding region CR are within the overlapping region DR, A third position corresponding to the position can be determined.
  • the display control unit 39A trims the corresponding area CR from the second original image data 55B after the second transition process, and causes the display unit 28 to display the trimmed trimmed image data 57.
  • the display control unit 39A moves the position of the corresponding region CR in the second original image data 55B to the image end on the other side of the first original image data 55A by the moving operation received through the operation panel 33.
  • the third transition process is performed after the pause process described above.
  • the display control unit 39A sets the fourth position of the corresponding region CR in the second original image data 55B as the second position in the other first original image data 55A corresponding to the fourth position. Transition to the position of.
  • the point Q4 is a representative point at the fourth position
  • the point Q2 is a representative point at the second position.
  • the display control unit 39A trims the corresponding area CR from the other first original image data 55A after the third transition process, and displays the trimmed trimmed image data 57 on the display unit 28.
  • FIG. 21 is a flowchart showing a flow of display processing of the trimmed image data 57 by the imaging device 10A of the third embodiment.
  • the processing up to step S16 is basically the same as the processing up to step S16 shown in FIG. 14 of the first embodiment described above.
  • steps S1 to S9 each of the above-described implementations is performed by performing the first imaging and the second imaging as shown in FIG. 18B.
  • a plurality of captured image data 20 that is twice the form is generated.
  • a plurality of conversions corresponding to the first imaging (or the second imaging is possible) are performed after projective transformation processing is performed on the captured image data 20 obtained by the first imaging and the second imaging, respectively.
  • the panorama image data 43 is generated by subjecting the image data 41 to cut processing and reduction processing.
  • step S6 the image storage control unit 49A stores the plurality of converted image data 41 obtained by the first imaging in the storage unit 26 as the plurality of first original image data 55A.
  • a plurality of converted image data 41 obtained by the second imaging is stored in the storage unit 26 as a plurality of second original image data 55B.
  • the original image data 55 including the first original image data 55A and the second original image data 55B is stored in the storage unit 26.
  • the display control unit 39A receives a movement operation of the position of the corresponding region CR from the operation panel 33 (step S17A).
  • the position of the corresponding region CR to be trimmed is moved from the original image data 55A (step S18A).
  • the display control unit 39A trims the corresponding region CR at a new position from the first original image data 55A, and sequentially outputs the trimmed image data 57 to the display unit 28.
  • the trimming image data 57 displayed on the display unit 28 is updated according to the moving operation (step S19A).
  • step S17A to step S19A the processing from step S17A to step S19A described above is repeatedly executed until the position of the corresponding region CR reaches the image end of the first original image data 55A by the moving operation (NO in step S20A).
  • step S20A When the position of the corresponding region CR is moved to the image end in the first original image data 55A by the moving operation, the display control unit 39A temporarily stops the position of the corresponding region CR. Perform (YES in step S20A, step S21A). If the user does not perform a moving operation for moving the position of the corresponding region CR toward the other first original image data 55A on the operation panel 33 after the pause processing, the process from step S17A to step S21A is performed. The process is repeatedly executed (NO in step S22A).
  • the display control unit 39A executes the second transition process (YES in step S22A).
  • the display control unit 39A sets the first position of the corresponding region CR in one of the first original image data 55A as shown in FIG.
  • a transition is made to a third position corresponding to the first position in the second original image data 55B captured between the first original image data 55A (step S23A).
  • the display control unit 39 trims the corresponding region CR from the second original image data 55B and outputs new trimmed image data 57 to the display unit 28 (step S24A). Thereby, the display on the display unit 28 is updated to the trimmed image data 57 trimmed from the second original image data 55B (step S25A).
  • the imaging range of the second original image data 55B is located between the imaging range of one of the first original image data 55A and the other (see FIG. 18B).
  • the trimmed image data 57 trimmed from the second original image data 55B is trimmed from one first original image data 55A rather than the trimmed image data 57 trimmed from the other first original image data 55A.
  • An image similar to the trimmed image data 57 is obtained. Therefore, when the display on the display unit 28 is updated to the trimmed image data 57 trimmed from the second original image data 55B, the display is updated to the trimmed image data 57 trimmed from the other first original image data 55A.
  • the uncomfortable feeling given to the user can be reduced.
  • step S25A when the display control unit 39A receives a movement operation of the position of the corresponding region CR from the operation panel 33, the display control unit 39A moves the position of the corresponding region CR in the second original image data 55B according to the movement operation. At the same time, the trimming image data 57 displayed on the display unit 28 is updated (steps S26A and S27A).
  • the display control unit 39A moves the position of the corresponding region CR in the second original image data 55B to the image end on the other side of the first original image data 55A by the moving operation received through the operation panel 33.
  • the above-described pause process is performed.
  • the third transition process illustrated in FIG. 20 is performed. That is, the display control unit 39A sets the fourth position of the corresponding region CR in the second original image data 55B to the second position in the other first original image data 55A corresponding to the fourth position. Transition to position.
  • the display control unit 39A trims the corresponding region CR from the other first original image data 55A, and displays the trimmed trimmed image data 57 on the display unit 28. As a result, the display on the display unit 28 is updated to the trimmed image data 57 trimmed from the other first original image data 55A.
  • step S17A the processes after step S17A are repeatedly executed until the user finishes the moving operation.
  • the second transition process may be performed before the position of the corresponding region CR reaches the image end in the first original image data 55A. Thereby, it is possible to avoid the influence of the deterioration of the resolution at the image end of the first original image data 55A.
  • FIG. 22 is a block diagram illustrating a configuration of an imaging apparatus 10B according to the fourth embodiment.
  • imaging is started from a preset orientation.
  • the imaging device 10B of the fourth embodiment is the imaging device of the first embodiment except that the geomagnetism sensor 61 is provided in the imaging unit 11B and the control unit 25B of the tablet terminal 12B functions as the display control unit 39B. 10 (see FIG. 3) is basically the same configuration. For this reason, the same functions and configurations as those of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • FIG. 23 is an explanatory diagram for explaining an example of divided imaging of a subject around the imaging unit 11B according to the fourth embodiment. Note that numbers (1) to (8) in parentheses in the figure indicate the order of imaging by the imaging unit 11B.
  • the imaging unit 11B has an azimuth detection function for detecting the azimuth (direction) based on the detection result of the geomagnetic sensor 61. For this reason, the imaging unit 11B starts the above-described divided imaging after aligning the imaging direction of the imaging unit 18 with a preset orientation (for example, north) when the surrounding subject is divided and imaged. As a result, the imaging unit 11B starts imaging from a subject in a predetermined direction among the surrounding subjects, and then rotates at a certain rotation angle position while being rotated by a fixed rotation angle by the turntable 16. A plurality of captured image data 20 is generated by imaging each subject.
  • the plurality of captured image data 20 generated by the imaging unit 11B is acquired by the tablet terminal 12B.
  • projective transformation processing, cut processing, reduction processing, and connection processing are performed on the plurality of captured image data 20 in each unit of the control unit 25B of the tablet terminal 12B.
  • panoramic image data 43 is generated.
  • the panoramic image data 43 is generated by connecting a plurality of reduced image data 41B in the order of imaging by the imaging unit 11B, that is, in the order along the rotational direction of the turntable 16 from the above-mentioned preset orientation.
  • the panorama image data 43 is input from the panorama image generator 38 to the display controller 39B.
  • FIG. 24 is an explanatory diagram for explaining the display processing of the panoramic image data 43 by the display control unit 39B of the fourth embodiment.
  • the display control unit 39B outputs the panorama image data 43 input from the panorama image generation unit 38 to the display unit 28, and causes the display unit 28 to display the panorama image data 43 as a whole.
  • the display control unit 39B displays the panoramic image data 43 on the display unit 28, the subject in which direction each of the plurality of reduced image data 41B constituting the panoramic image data 43 is relative to the imaging unit 11B. It is discriminated whether the image is captured.
  • a plurality of reduced image data 41B are generated by connecting them in the order along the rotation direction by the turntable 16 from the above-mentioned preset orientation, so that the known preset orientation and rotation Based on the rotation angle by the table 16, the display control unit 39B can determine the azimuth corresponding to each of the reduced image data 41B. Then, the display control unit 39B displays azimuth information 63 indicating in which azimuth the subject of the reduced image data 41B constituting the panoramic image data 43 is captured with respect to the imaging unit 11B. To display.
  • the imaging unit 11B having the orientation detection function starts imaging from a predetermined orientation, and the orientation information 63 is displayed when the panorama image data 43 is displayed on the display unit 28. Since they are also displayed, the user can view the panoramic image data 43 while grasping the direction (absolute direction such as north, east, west, south).
  • the plurality of captured image data 20 is captured by the imaging unit 11B having the geomagnetic sensor 61, information indicating the orientation at the time of imaging may be added to each of the plurality of captured image data 20.
  • the orientation corresponding to each of the reduced image data 41B can be determined and the orientation information 63 can be displayed on the display unit 28.
  • the plurality of reduced image data 41B can be connected in the order along the rotation direction by the turntable 16 from those of a preset orientation, and the same panoramic image data 43 as in the fourth embodiment can be generated. .
  • the imaging unit 11B having the azimuth detection function using the geomagnetic sensor 61 has been described as an example.
  • the method for detecting the azimuth is not limited to the geomagnetic sensor 61.
  • Various orientation detection means may be used.
  • FIG. 25 is a block diagram illustrating a configuration of an imaging apparatus 10C according to the fifth embodiment.
  • the panoramic image data 43 is generated by connecting a plurality of reduced image data 41B in a state in which they are adjacent to each other in the order of imaging.
  • Panorama image data 43C is generated by a method different from that of the embodiment.
  • the imaging apparatus 10C has basically the same configuration as the imaging apparatus 10 of the first embodiment, except that the tablet terminal 12C includes a control unit 25C different from the first embodiment. .
  • the same functions and configurations as those of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • the control unit 25C executes the program 30 read from the storage unit 26, whereby the image acquisition unit 35, the projection conversion unit 36, the image storage control unit 49, the display area setting unit 51, and the like described in the first embodiment, In addition to the determination unit 52, the cut processing unit 37C, the panoramic image generation unit 38C, the display control unit 39C, and the origin coordinate storage control unit 65 function.
  • FIGS. 26A to 26C are explanatory diagrams for explaining the flow of processing for generating panoramic image data 43C in the fifth embodiment.
  • numerals (1), (2), (3),... With parentheses indicate the order of imaging by the imaging unit 11.
  • the cut processing unit 37C has a large image distortion (curved in a convex shape) in the plurality of converted image data 41 after the projective transformation process. And the cut process which cuts a lower end part is performed, and several cut image data 41Ac are produced
  • the panoramic image generation unit 38C has, for example, a portion of the imaging range overlapping reduced image data 41Bc obtained by reducing the plurality of cut image data 41Ac input from the cut processing unit 37C.
  • are connected so-called panoramic synthesis
  • panoramic image data 43C is generated in which a plurality of reduced image data 41Bc are connected in a state where overlapping regions DR between adjacent image data are overlapped.
  • a general panorama composition process is performed.
  • the method for generating the panorama image data 43C is not limited to the above method, and various methods such as reduction processing after connecting a plurality of cut image data 41Ac may be used. Good. Then, the panorama image generation unit 38C outputs the generated panorama image data 43C to the display control unit 39C.
  • the origin coordinate storage controller 65 When the panoramic image generator 38C generates the panorama image data 43C, the origin coordinate storage controller 65 generates the origin coordinates 67 (o1, o2, o3,%) Of each reduced image data 41Bc in the panorama image data 43C. ) Is stored in the storage unit 26.
  • the origin coordinates 67 are used to identify the range of each reduced image data 41Bc in the panorama image data 43C. For example, each reduced image when an arbitrary point in the panorama image data 43C is used as the origin. This is the coordinates of the corner portion of the data 41Bc.
  • the origin coordinates 67 of each reduced image data 41Bc can be obtained from the width (length in the connecting direction) of each reduced image data 41Bc and the width of the overlapping region DR.
  • the origin coordinate storage control unit 65 stores the origin coordinates 67 of each reduced image data 41Bc in the storage unit 26. Further, when the origin coordinate storage control unit 65 stores the image size 68 of each reduced image data 41Bc in the storage unit 26.
  • the storage unit 26 of the fifth embodiment includes the origin coordinates 67 and the image size input from the origin coordinate storage control unit 65 in addition to the program 30 and the original image data 55 described in the first embodiment. 68 is stored. That is, the storage unit 26 of the fifth embodiment functions as an image storage unit and an origin coordinate storage unit of the present invention.
  • the display control unit 39C outputs the panorama image data 43C input from the panorama image generation unit 38 to the display unit 28, and displays the panorama on the display unit 28 in the same manner as in FIG. 8 or FIG. 9 of the first embodiment described above.
  • the image data 43C is displayed.
  • the display area setting unit 51 sets the display area VR.
  • the setting range information indicating the setting range of the display area VR is output to the determination unit 52.
  • the determination unit 52 determines whether or not the display area VR set by the display area setting unit 51 is within the imaging range of the original image data 55 based on the setting range information input from the display area setting unit 51. The determination is made, and the determination result is output to the display control unit 39C.
  • 27A, 27 ⁇ / b> B, and 27 ⁇ / b> C show display areas by the display control unit 39 ⁇ / b> C of the fifth embodiment when the determination unit 52 determines that the display area VR is within the imaging range of the original image data 55. It is explanatory drawing for demonstrating the enlarged display of VR.
  • the display control unit 39C first displays the position of the display area VR on the panoramic image data 43C, the origin coordinates 67 read from the storage unit 26, and Based on the image size 68, the original image data 55 including the corresponding region CR is retrieved from the storage unit 26.
  • symbol v in a figure is a representative point of the coordinate which shows the position of the display area VR on the panorama image data 43C.
  • the position (coordinate v) of the display area VR on the panoramic image data 43C is compared with the coordinates of each point o1, o2,... Of the origin coordinate 67 and the image size 68 of each reduced image data 41Bc.
  • the original image data 55 including the corresponding region CR corresponding to the display region VR can be determined.
  • the display control unit 39C corresponds to the corresponding area CR corresponding to the display area VR.
  • the original image data 55 of (1) or (2) is retrieved from the storage unit 26 as the original image data 55 including.
  • the display control unit 39C trims the corresponding region CR from the retrieved (1) or (2) original image data 55, and outputs the trimmed trimmed image data 57 to the display unit 28 for display.
  • the display region VR is completely within the range of the reduced image data 41Bc of (2) or the reduced image data 41Bc of (3), as in FIG. 12 of the first embodiment described above. If it is set so as to straddle both, the original image data 55 having the large area (3) described above is searched from the storage unit 26.
  • the display control unit 39C determines the corresponding region CR corresponding to the display region VR from the retrieved original image data 55 of (3).
  • the corresponding region CR corresponding to the display region VR in this case corresponds to the display region VR1 located at the position translated from the initially set position of the display region VR into the reduced image data 41Bc of (3) having a large area size.
  • the amount of translational movement is the size of the display area VR (indicated by hatching in the drawing) outside the range on the reduced image data 41Bc (3) having a large area area.
  • the display control unit 39C trims the corresponding region CR from the original image data 55 of (3), and outputs the trimmed trimmed image data 57 to the display unit 28 for display.
  • FIG. 28 is an explanatory diagram for explaining an enlarged display of the display region VR (displayed by hatching in the drawing) by the display control unit 39C of the fifth embodiment when the determination unit 52 determines NO.
  • the display control unit 39C trims a region corresponding to the display region VR from the panoramic image data 43C, as in the first embodiment, and supplies the trimmed trimmed image data 56 to the display unit 28. Output and zoom in.
  • FIG. 29 is a flowchart illustrating a flow of the panorama image data 43C display processing and the display region VR enlargement display processing by the imaging device 10C of the fifth embodiment.
  • the processing up to step S6 is basically the same as the processing from step S1 to step S6 shown in FIG. 14 of the first embodiment described above, and a detailed description thereof will be omitted here.
  • step S6 the cut processing unit 37 that has received the input of the plurality of converted image data 41 cuts the upper end and the lower end of the plurality of converted image data 41 as shown in FIG.
  • the cut processing is performed to generate a plurality of cut image data 41Ac and output it to the panoramic image generation unit 38C (step S7C).
  • the panoramic image generation unit 38C that has received the input of the plurality of cut image data 41Ac reduces the plurality of cut image data 41Ac to generate a plurality of reduced image data 41Bc (step S8C).
  • the panorama image generation unit 38C connects (panorama synthesis) the plurality of reduced image data 41Bc in a state in which the overlapping regions DR between adjacent images that overlap in a part of the imaging range are overlapped, and the panorama image data 43C.
  • the panorama image data 43C is generated and output to the display control unit 39C (step S9C).
  • the method of generating the panorama image data 43C by the panorama image generator 38C is not limited to the above method.
  • the origin coordinate storage control unit 65 obtains the origin coordinates 67 of each reduced image data 41Bc in the panorama image data 43C and stores it in the storage unit 26. At the same time, the image size 68 of each reduced image data 41Bc is stored in the storage unit 26 (step S9C-1).
  • the display control unit 39 Upon receiving the panorama image data 43C, the display control unit 39 outputs the panorama image data 43C to the display unit 28, and causes the display unit 28 to display the entire panorama image data 43C (step S10C).
  • ⁇ Display area enlargement display processing> As in the first embodiment, when the user operates the operation panel 33 to select an area to be enlarged and displayed in the panorama image data 43C displayed on the display unit 28, the display area VR of the display area VR by the display area setting unit 51 is selected. Setting (step S11C) and determination by the determination unit 52 are executed, and the determination result of the determination unit 52 is input to the display control unit 39C (step S12C).
  • the display control unit 39C When the display control unit 39C receives the determination result “No” from the determination unit 52, the display control unit 39C selects an area corresponding to the display area VR from the panoramic image data 43C as illustrated in FIG. Trimming is performed, and trimmed trimmed image data 56 is output to the display unit 28 (NO in step S12C, step S13C). Then, the display control unit 39C enlarges and displays the trimmed image data 56 on the display unit 28 (step S14C).
  • the display control unit 39 receives the determination result.
  • the origin coordinates 67 and the image size 68 stored in 26 are read out.
  • the display control unit 39 as shown in FIG. 27 described above, based on the position of the display area VR on the panoramic image data 43C, the origin coordinates 67, and the image size 68, the original in the storage unit 26.
  • Original image data 55 including the corresponding region CR is searched from the image data 55.
  • the display control unit 39C trims the corresponding region CR from the retrieved original image data 55 (step S15C), and outputs the trimmed trimmed image data 57 to the display unit 28 for display (step S16C).
  • step S11C described above are repeatedly executed (YES in step S30).
  • the display of the panorama image data 43C having the resolution corresponding to the size of the display surface of the display unit 28 and the trimming image data 56 or Since it is possible to seamlessly switch between the enlarged display of the display area VR based on the trimmed image data 57, it is possible to perform an overhead view of the subject and to confirm details.
  • FIG. 30A and 30B are explanatory diagrams for explaining the movement of the position of the corresponding region CR in the original image data 55 and the first transition process in the imaging device 10C of the fifth embodiment.
  • FIG. 30C is an explanatory diagram for describing a second transition process in the imaging device 10C according to the fifth embodiment.
  • the display control unit 39C of the fifth embodiment operates the operation panel 33 during the display of the trimmed image data 57 by the display unit 28, as in the second embodiment.
  • the position of the corresponding area CR in the original image data 55 is moved in accordance with this movement operation.
  • the display control unit 39C performs the above-described pause processing.
  • the display control unit 39C causes the corresponding region CR to be the overlapping region DR.
  • the first transition process described in FIGS. 15A and 15B or FIGS. 15C and 15D of the above-described second embodiment is executed depending on whether or not the shape fits inside. To do.
  • the first imaging and the second imaging can be performed as described with reference to FIG. 18B of the third embodiment.
  • the display control unit 39C moves the position of the corresponding region CR from the first original image data 55A to the other first original image on the operation panel 33 after the suspension process.
  • the second transition process described in FIG. 20 of the third embodiment described above is executed.
  • the sub screen 59 may be displayed on the screen.
  • imaging may be started from a preset orientation using the imaging unit 11B as in the above-described fourth embodiment (see FIGS. 22 to 24). Further, when the panoramic image data 43C is displayed on the display unit 28, the orientation information 63 may be displayed together.
  • the cylindrical conversion process is described as an example of the projective conversion process performed on the plurality of captured image data 20 acquired from the imaging units 11 and 11B. However, even if a projective conversion process other than the cylindrical conversion process is performed. Good. Further, the projective transformation process may be omitted. In this case, the image storage control units 49 and 49A cause the storage unit 26 to store the plurality of captured image data 20 as the plurality of original image data 55.
  • the tablet terminals 12, 12A to 12C function as the image processing apparatus of the present invention.
  • the panorama image data 43, 43C and the trimmed image data 56, 57 are generated by the imaging unit 11, It may be executed on the 11B side.
  • the pan / tilt camera is taken as an example of the imaging units 11 and 11B, but the type of the imaging unit is not particularly limited, and a digital camera, a portable terminal, or the like may be used.
  • a digital camera, a portable terminal, etc. when performing continuous imaging while moving the imaging range in the horizontal direction, imaging is performed while overlapping a part of the imaging range before and after continuous imaging.
  • a device having an imaging support function also referred to as a panorama assist function
  • this imaging unit may function as the image processing apparatus of the present invention. Thereby, the imaging device of the present invention can be realized by one device.
  • the imaging units 11 and 11B divide and image around 360 °, but the divided imaging range may be less than 360 °.
  • the image pickup units 11 and 11B are divided and imaged around the image pickup unit 11 and 11B. For example, instead of rotating the image pickup units 11 and 11B, the image pickup units 11 and 11B are continuously moved while moving in any one direction including the horizontal direction. Imaging may be executed. Further, instead of performing imaging with one imaging unit 11 or the like, imaging may be performed with a plurality of imaging units 11 or the like.
  • the tablet terminals 12, 12A to 12C have been described as examples of the image processing apparatus of the present invention.
  • personal computers, servers, and mobile terminals [smartphones, tablet terminals, PDA (PersonalsonDigital
  • the present invention can be applied to various image processing apparatuses having an image processing function such as Assistants) and portable game machines.
  • the storage unit 26 and the display unit 28 described in the above embodiments are not necessarily provided integrally with the image processing apparatus, and may be provided separately.
  • the imaging apparatus of the present invention can be realized by a single device.
  • a program for causing a computer to function as the imaging device described in each of the above embodiments is a CD-ROM (Compact Disc Read Only Memory), a magnetic disk, or other computer-readable medium (a non-temporary tangible object)
  • a program can be provided through the information storage medium. Instead of providing the program by storing the program in such an information storage medium, it is also possible to provide the program signal as a download service using a communication network such as the Internet.
  • FIG. 31 is an external perspective view of a smartphone 500 to which the present invention is applicable.
  • a smartphone 500 illustrated in FIG. 31 includes a flat housing 502, and a display input in which a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502. Part 520.
  • the housing 502 includes a speaker 531, a microphone 532, an operation unit 540, a camera unit 541, and a light emitting diode (LED) light emitting unit 542.
  • LED light emitting diode
  • the configuration of the housing 502 is not limited thereto, and for example, a configuration in which the display unit and the input unit are independent, or a configuration having a folding structure or a slide mechanism can be employed.
  • FIG. 32 is a block diagram showing a configuration of the smartphone 500 shown in FIG.
  • the main components of the smartphone 500 include a wireless communication unit 510, a display input unit 520, a call unit 530, an operation unit 540, a camera unit 541, a storage unit 550, and an external input / output.
  • Unit 560 GPS (Global Positioning System) reception unit 570, motion sensor unit 580, power supply unit 590, and main control unit 501.
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided as a main function of the smartphone 500.
  • the wireless communication unit 510 performs wireless communication with a base station apparatus accommodated in the mobile communication network in accordance with an instruction from the main control unit 501. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 520 displays images (still images and moving images), character information, and the like visually by the control of the main control unit 501, and visually transmits information to the user, and detects user operations on the displayed information.
  • This is a so-called touch panel, and includes a display panel 521 and an operation panel 522.
  • the display panel 521 is preferably a 3D display panel.
  • the display panel 521 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • the operation panel 522 is a device that is placed so that an image displayed on the display surface of the display panel 521 is visible and detects one or a plurality of coordinates operated by a user's finger or stylus.
  • a detection signal generated due to the operation is output to the main control unit 501.
  • the main control unit 501 detects an operation position (coordinates) on the display panel 521 based on the received detection signal.
  • the display panel 521 and the operation panel 522 of the smartphone 500 integrally form the display input unit 520, but the operation panel 522 is disposed so as to completely cover the display panel 521. ing.
  • the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521.
  • the operation panel 522 may include two sensitive regions of the outer edge portion and the other inner portion. Furthermore, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like. Furthermore, examples of the position detection method employed in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method, and any method is adopted. You can also
  • the call unit 530 includes a speaker 531 and a microphone 532, and converts a user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the voice data to the main control unit 501, or a wireless communication unit 510 or the audio data received by the external input / output unit 560 is decoded and output from the speaker 531.
  • the speaker 531 and the microphone 532 can be mounted on the same surface as the surface on which the display input unit 520 is provided.
  • the operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 540 is mounted on a lower portion and a lower side of the display unit of the housing 502 of the smartphone 500 and is turned on when pressed with a finger or the like, and is turned off when a finger is released with a restoring force such as a spring. It is a button type switch.
  • the storage unit 550 includes control programs and control data of the main control unit 501, address data in which names and telephone numbers of communication partners are associated, transmitted and received e-mail data, Web data downloaded by Web browsing, and downloaded contents Data is stored, and streaming data and the like are temporarily stored.
  • the storage unit 550 includes an internal storage unit 551 with a built-in smartphone and an external storage unit 552 having a removable external memory slot.
  • Each of the internal storage unit 551 and the external storage unit 552 constituting the storage unit 550 includes a flash memory type (flash memory type), a hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), It is realized using a storage medium such as a card type memory (for example, Micro SD (registered trademark) memory), RAM (Random Access Memory), ROM (Read Only Memory), or the like.
  • the storage unit 550 corresponds to the storage unit 26 in each of the above embodiments.
  • the external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and communicates with other external devices (for example, a universal serial bus) or a network (for example, the Internet, Wireless LAN (Local Area Network), Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA), UWB (Ultra Wideband) (registered trademark), ZigBee (registered) Trademark) etc.) for direct or indirect connection.
  • a universal serial bus for example, the Internet, Wireless LAN (Local Area Network), Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA), UWB (Ultra Wideband) (registered trademark), ZigBee (registered) Trademark) etc.
  • Examples of the external device connected to the smartphone 500 include a memory card connected via a wired / wireless headset, wired / wireless external charger, wired / wireless data port, card socket, and SIM (Subscriber).
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video equipment connected via audio / video I / O (Input / Output) terminal
  • external audio / video equipment connected wirelessly, yes / no
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 500, or may allow data inside the smartphone 500 to be transmitted to the external device. it can.
  • the GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 501, performs positioning calculation processing based on the received plurality of GPS signals, and calculates the latitude and longitude of the smartphone 500. , Detect the position consisting of altitude.
  • the GPS receiving unit 570 can acquire position information from the wireless communication unit 510 or the external input / output unit 560 (for example, a wireless LAN), the GPS receiving unit 570 can also detect the position using the position information.
  • the motion sensor unit 580 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 500 in accordance with an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.
  • the power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 in accordance with an instruction from the main control unit 501.
  • the main control unit 501 includes a microprocessor, operates according to a control program and control data stored in the storage unit 550, and controls each unit of the smartphone 500 in an integrated manner. Further, the main control unit 501 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 510.
  • the application processing function is realized by the main control unit 501 operating in accordance with application software stored in the storage unit 550.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 560 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 501 also has an image processing function such as displaying video on the display input unit 520 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 520.
  • the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.
  • the main control unit 501 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar
  • the scroll bar refers to a software key for accepting an instruction to move a display portion of an image, such as a large image that cannot fit in the display panel 521.
  • the main control unit 501 detects a user operation through the operation unit 540, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 522. Or a display image scroll request through a scroll bar.
  • the main control unit 501 determines whether the operation position with respect to the operation panel 522 is an overlapping portion that overlaps the display panel 521 or an outer edge portion that does not overlap the other display panel 521, and the operation panel 522.
  • Touch panel control function to control the sensitive area and software key display position.
  • the main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 541 is an imaging unit that performs electronic imaging using a CMOS (Complementary Metal Oxide Semiconductor) type or CCD (charge-coupled device) type imaging device.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD charge-coupled device
  • the LED light emitting unit 542 includes a white LED and a near-infrared LED.
  • the white LED When the amount of light of the subject is insufficient in the visible light image capturing mode, the white LED is turned on, and the white LED is used as auxiliary light at the time of visible light image capturing.
  • White light is emitted, near-infrared LED is lit in the near-infrared light image capturing mode, and near-infrared light is emitted from the near-infrared LED as auxiliary light at the time of near-infrared light image capturing.
  • the near-infrared LED can also be used as a light source for infrared communication.
  • the camera unit 541 converts image data obtained by imaging into compressed image data such as JPEG (JointoPhotographic coding Experts Group) under the control of the main control unit 501, and records the data in the storage unit 550.
  • the data can be output through the external input / output unit 560 or the wireless communication unit 510.
  • the camera unit 541 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 541 is not limited to this and may be mounted on the back surface of the display input unit 520.
  • a plurality of camera units 541 may be mounted. Note that when a plurality of camera units 541 are mounted, the camera unit 541 used for imaging may be switched and imaged alone, or a plurality of camera units 541 may be used simultaneously for imaging. it can.
  • the camera unit 541 can be used for various functions of the smartphone 500.
  • an image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of operation inputs of the operation panel 522.
  • the GPS receiving unit 570 detects the position, the position can also be detected with reference to an image from the camera unit 541.
  • the optical axis direction of the camera unit 541 of the smartphone 500 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 541 can be used in the application software.
  • the main control unit 501 has a function equivalent to that of the control units 25 and 25A to 25C of the above embodiments, and corresponds to the image processing apparatus of the present invention.
  • the camera unit 541 can function as an imaging unit of the present invention. In this case, it is preferable to mount the above-described imaging support function (panorama assist function) on the smartphone 500.
  • FIG. 33A a touch for selecting a part of the panoramic image data 43 displayed on the display unit 28 of the tablet terminal 12 in the first embodiment (or other embodiments are possible).
  • reduced image data 41 ⁇ / b> B including coordinates in which the selection operation is performed is detected in the panoramic image data 43.
  • the display control unit 39 reads the original image corresponding to the detection result of the reduced image data 41B from the storage unit 26 and causes the display unit 28 to display the original image.
  • a plurality of captured images obtained by continuously performing imaging while moving the imaging range of the imaging unit in the horizontal direction, and overlapping a part of the imaging range before and after successive imaging An image acquisition unit that acquires a plurality of captured images obtained by executing imaging, and a panorama in which a plurality of reduced images obtained by reducing a plurality of captured images are connected from a plurality of captured images acquired by the image acquisition unit
  • a panorama image generation unit that generates an image
  • an image storage control unit that stores a plurality of captured images before reduction processing by the panorama image generation unit in an image storage unit, and a panorama image generated by the panorama image generation unit
  • the selection operation is not performed.
  • a display control unit that reads out an original image corresponding to the detection result of the image detection unit from the image storage unit based on the detection result of the image detection unit.
  • panoramic image data 49, 49A ... Image storage control unit 51... Display area setting unit 52 52 determination unit 55 55 original image data 55 A first original image data 5 B ... second original image data, 56 ... trimmed image data, 57 ... trimmed image data, 59 ... sub-screen, 61 ... geomagnetism sensor, 65 ... origin coordinate storage control unit, 67 ... origin coordinates

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

本発明は、撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像から、被写体の俯瞰と詳細確認とを可能にする画像処理装置及び撮像装置及び画像処理方法及びプログラムを提供する。本発明の実施態様では、撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像からパノラマ画像を生成する。複数の撮像画像をオリジナル画像として画像記憶部に記憶させる。パノラマ画像の中で拡大表示する表示領域を設定する。表示領域がオリジナル画像の撮像範囲内であるか否かを判定する。否と判定した場合、パノラマ画像から表示領域をトリミングして表示部に拡大表示させ、オリジナル画像の撮像範囲内であると判定した場合、オリジナル画像の中から表示領域に対応する対応領域をトリミングして表示部に表示させる。

Description

画像処理装置及び撮像装置及び画像処理方法及びプログラム
 本発明は、撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像を画像処理する画像処理装置及び撮像装置及び画像処理方法及びプログラムに関する。
 近年、パン方向及びチルト方向に回転可能な撮像ユニットが知られている。この撮像ユニットを、一定の回転角度ずつ水平方向に回転(パンニング)させながら各回転角度位置において撮像を実行させることにより、撮像ユニットの周囲の被写体の撮像画像が複数得られる。そして、これら複数の撮像画像を表示部に表示することで、撮像ユニットの周囲の被写体を確認することができる。ただし、撮像画像の数が大量である場合には、表示部に現在表示されている撮像画像がどの方向を撮像したものであるかを把握し難いという問題や、撮像画像間を跨いだ被写体の位置関係を把握し難いという問題がある。
 そこで、撮像ユニットを回転させながら連続して撮像を実行して得られた複数の撮像画像であって、且つ連続する撮像の前後で撮像範囲の一部を重複させながら撮像を実行して得られた複数の撮像画像を、連続する前後の撮像画像間の重複領域同士を重ね合せた状態で連結してパノラマ画像を生成する方法が知られている。パノラマ画像は超広角画像であるため、ユーザは被写体の全体を俯瞰することが可能になり、被写体の位置関係が把握し易くなる。
 特許文献1には、撮像ユニットの画角情報に基づき、撮像ユニットを水平方向に回転させながら連続して撮像を実行することにより得られた複数の撮像画像に対して円筒変換処理を行い、円筒変換処理後の撮像画像を連結してパノラマ画像を生成する方法が記載されている。
 特許文献2には、撮像範囲の一部が重複するように配置された複数のカメラを用いて撮像を行い、1つの基準カメラで撮像された撮像画像の座標に合わせて、他のカメラで撮像された撮像画像の座標を幾何変換した後、各撮像画像を連結してパノラマ画像を生成する方法が記載されている。
 特許文献3には、撮像地点を中心とする周囲360°以上のパノラマ画像を生成し、この360°以上のパノラマ画像の始端と終端とに含まれる共通被写体同士を重ね合せることにより、360°のパノラマ画像を生成する方法が記載されている。
特開2000-125190号公報 特開2002-94849号公報 国際公開第2013/015024号
 ところで、近年の撮像ユニットに搭載されるイメージセンサの高画素化に伴い、撮像ユニットにより撮像される撮像画像も高解像度化している。このため、高解像度の複数の撮像画像を連結して得られるパノラマ画像はさらに超高解像度になるので、この超高解像度のパノラマ画像を元の解像度で表示装置に表示した場合、パノラマ画像の一部分しか表示できなくなる。その結果、特許文献1から3のいずれの方法を用いた場合であっても、表示部に現在表示されている画像がどの方向を撮像したものかを把握し難いという問題、撮像画像間を跨いだ被写体の位置関係を把握し難いという問題、及び表示メモリ(Video RAM)の使用量が増大するという問題が発生する。従って、このような問題を回避するためには、超高解像度のパノラマ画像を表示部に表示する場合に、このパノラマ画像を表示部の解像度に合わせて縮小処理(低解像度化)する必要がある。
 しかしながら、縮小処理されたパノラマ画像を表示部で表示した場合、パノラマ画像内の被写体の詳細な確認ができなくなる。特にこのパノラマ画像を被写体の各種の検証等に用いる場合、被写体の中で詳細な確認が困難な箇所が生じると検証等の結果に問題が生じてしまう。
 本発明はこのような事情に鑑みてなされたものであり、撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像から、被写体の俯瞰と詳細確認とを可能にする画像処理装置及び撮像装置及び画像処理方法及びプログラムを提供することを目的とする。
 本発明の目的を達成するための画像処理装置は、撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像であって、且つ連続する撮像の前後で撮像範囲の一部を重複させながら撮像を実行して得られた複数の撮像画像を取得する画像取得部と、画像取得部が取得した複数の撮像画像から、複数の撮像画像を縮小処理した複数の縮小画像が連結されているパノラマ画像を生成するパノラマ画像生成部と、パノラマ画像生成部による縮小処理前の複数の撮像画像をオリジナル画像として画像記憶部に記憶させる画像記憶制御部と、パノラマ画像生成部が生成したパノラマ画像を表示部に表示させる表示制御部と、表示部に表示されているパノラマ画像の中で拡大表示する表示領域を設定する表示領域設定部と、表示領域設定部により設定された表示領域が、オリジナル画像の撮像範囲内であるか否かを判定する判定部と、を備え、表示制御部は、判定部が否と判定した場合、パノラマ画像から表示領域をトリミングして表示部に拡大表示させ、判定部がオリジナル画像の撮像範囲内であると判定した場合、画像記憶部に記憶されているオリジナル画像の中から表示領域に対応する対応領域をトリミングして表示部に表示させる。
 この画像処理装置によれば、パノラマ画像の表示と、パノラマ画像又は高解像度のオリジナル画像からトリミングしたトリミング画像による表示領域の拡大表示とをシームレスに切り替えることができる。
 本発明の他の態様に係る画像処理装置において、表示制御部は、表示部にオリジナル画像内の対応領域が表示されている場合において、さらにオリジナル画像内での対応領域の位置を移動させる移動操作を受け付けた場合、移動操作に応じてオリジナル画像の中からトリミングする対応領域の位置を移動させる。これにより、表示部の表示面外にある周辺領域(対応領域外の領域)の画像データを自由に確認することができるので、撮像ユニットの周囲の被写体の細部の詳細確認を行う位置を自由に変えることができる。
 本発明の他の態様に係る画像処理装置において、表示制御部は、移動操作によって対応領域の位置が、互いに隣接するオリジナル画像の一方の画像において他方の画像に隣接する側の画像端まで移動した場合、対応領域の位置の移動を一時的に停止させる一時停止処理と、一時停止処理された対応領域の位置を一方の画像から他方の画像に向けて移動させる移動操作をさらに受け付けた場合、一方の画像の画像端にある対応領域の第1の位置を、第1の位置に対応する他方の画像の第2の位置へ遷移させる第1の遷移処理と、を実行する。これにより、対応領域の第1の遷移処理が行われることをユーザに予告することができ、表示部の表示が他方の画像からトリミングしたトリミング画像に切り替わった場合にユーザに与える違和感を低減させることができる。また、パノラマ画像の個々の画像の連結部分をユーザに意識させることなく、表示部の表示内容を他方の画像からトリミングしたトリミング画像に更新することができる。
 本発明の他の態様に係る画像処理装置において、画像取得部は、撮像ユニットが水平方向に一定の回転角度ずつ回転する毎に撮像を行って生成した複数の撮像画像を取得する。
 本発明の他の態様に係る画像処理装置において、撮像ユニットは、水平方向に一定の回転角度ずつ回転する毎に第1の撮像を行って複数の撮像画像を生成し、且つ第1の撮像を行う毎に第1の撮像の位置から回転角度の1/2だけさらに回転した位置で第2の撮像を行って複数の撮像画像を生成し、画像取得部は、撮像ユニットの第1の撮像により生成された複数の撮像画像と、第2の撮像により生成された複数の撮像画像とを取得し、パノラマ画像生成部は、第1の撮像及び第2の撮像のいずれか一方の撮像によって得られた複数の撮像画像からパノラマ画像を生成し、画像記憶制御部は、一方の撮像で得られた複数の撮像画像を第1のオリジナル画像とし、且つ一方の撮像とは異なる他方の撮像で得られた複数の撮像画像を第2のオリジナル画像として、第1のオリジナル画像と第2のオリジナル画像とを含むオリジナル画像を画像記憶部に記憶させ、表示制御部は、移動操作によって対応領域の位置が、互いに隣接する第1のオリジナル画像の一方の画像の中において他方の画像に隣接する側の画像端まで移動した場合、対応領域の位置の移動を一時的に停止させる一時停止処理と、一時停止処理された対応領域の位置を一方の画像から他方の画像に向けて移動させる移動操作をさらに受け付けた場合、一方の画像内の画像端にある対応領域の第1の位置を、一方の画像及び他方の画像の間で撮像された第2のオリジナル画像内の第1の位置に対応する第3の位置へ遷移させる第2の遷移処理と、を実行する。これにより、ユーザに与える違和感を上述の第1の遷移処理を行った場合よりも低減することができる。
 本発明の他の態様に係る画像処理装置において、パノラマ画像生成部は、複数の縮小画像が撮像ユニットによる撮像順に間隔をあけて隣接させた状態で連結されているパノラマ画像であって、且つ撮像範囲の一部が重複する複数の縮小画像の隣接画像間の重複領域が、隣接画像間の重複領域の互いに対向する画像端から予め設定した幅でカット処理されているパノラマ画像を生成する。これにより、重複領域に存在する遠近のいずれか一方にある被写体が正常に合成されなかったり、被写体が二重像になったり、画像間の境界部分に段差(ずれ)が生じたりするなどのパノラマ画像の不良(合成不良)の発生を回避することができる。また、単純に画像を並べて配置した場合よりもあおりの影響が少なくなり、パノラマ画像が見易くなる。
 本発明の他の態様に係る画像処理装置において、予め設定された幅は、カット処理された複数の縮小画像の隣接画像同士の一部が重複する大きさに設定されている。これにより、カット処理前の画像に存在していた被写体の一部がカット処理により消失することが防止される。
 本発明の他の態様に係る画像処理装置において、パノラマ画像生成部は、複数の縮小画像が、撮像範囲の一部が重複する隣接画像間の重複領域を重ね合せた状態で連結されているパノラマ画像を生成し、パノラマ画像生成部がパノラマ画像を生成する場合に、パノラマ画像内での複数の縮小画像の各々の原点座標を原点座標記憶部に記憶させる原点座標記憶制御部を有し、表示制御部は、判定部がオリジナル画像の撮像範囲内であると判定した場合、表示領域設定部により設定された表示領域と、原点座標記憶部に記憶されている原点座標とに基づき、画像記憶部に記憶されているオリジナル画像の中から対応領域を含むオリジナル画像を検索し、検索したオリジナル画像の対応領域をトリミングして表示部に表示させる。一般的な生成方法でパノラマ画像を生成した場合であっても、パノラマ画像の表示と、パノラマ画像又は高解像度のオリジナル画像からトリミングしたトリミング画像による表示領域の拡大表示とをシームレスに切り替えることができるので、被写体の俯瞰と詳細確認とが可能になる。
 本発明の他の態様に係る画像処理装置において、画像取得部が取得した複数の撮像画像に対し、撮像ユニットの画角に基づき同一投影面に射影変換する射影変換処理を施す射影変換部を備え、パノラマ画像生成部は、射影変換部により射影変換処理された複数の撮像画像から生成した複数の縮小画像を連結してパノラマ画像を生成し、画像記憶制御部は、オリジナル画像として、射影変換部により射影変換処理された複数の撮像画像を画像記憶部に記憶させる。これにより、あおりの影響が抑えられ、複数の撮像画像の隣接画像間での被写体の位置のずれが低減する。
 本発明の他の態様に係る画像処理装置において、表示制御部は、オリジナル画像から対応領域をトリミングして表示部に表示させる場合に、表示部の表示面の一部にパノラマ画像の全体を示す全体画像を表示させる。これにより、オリジナル画像の対応領域からトリミングしたトリミング画像を表示部に表示している場合であっても、ユーザはパノラマ画像の全体を把握することができる。
 本発明の他の態様に係る画像処理装置において、表示制御部は、表示領域の範囲を示す範囲画像を全体画像に重畳表示させる。これにより、オリジナル画像の対応領域からトリミングしたトリミング画像を表示部に表示している場合に、このトリミング画像がパノラマ画像のどの領域を拡大表示したものであるかを容易に判別することができる。
 本発明の目的を達成するための撮像装置は、撮像ユニットと、撮像ユニットの撮像範囲を水平方向に回転させる回転機構と、上述の画像処理装置と、を備える。
 本発明の他の態様に係る撮像装置において、撮像ユニットは、方位検出機能を有しており、予め設定された方位から撮像を開始する。これにより、パノラマ画像を構成する複数の縮小画像の各々が撮像ユニットに対してどの方位にある被写体を撮像したものであるかを容易に判別することができる。
 本発明の目的を達成するための画像処理方法は、撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像であって、且つ連続する撮像の前後で撮像範囲の一部を重複させながら撮像を実行して得られた複数の撮像画像を取得する画像取得ステップと、画像取得ステップで取得した複数の撮像画像から、複数の撮像画像を縮小処理した複数の縮小画像が連結されているパノラマ画像を生成するパノラマ画像生成ステップと、パノラマ画像生成ステップで縮小処理される前の複数の撮像画像をオリジナル画像として画像記憶部に記憶させる画像記憶制御ステップと、パノラマ画像生成ステップで生成したパノラマ画像を表示部に表示させる表示制御ステップと、表示部に表示されているパノラマ画像の中で拡大表示する表示領域を設定する表示領域設定ステップと、表示領域設定ステップで設定された表示領域が、オリジナル画像の撮像範囲内であるか否かを判定する判定ステップと、を有し、表示制御ステップは、判定ステップで否と判定された場合、パノラマ画像から表示領域をトリミングして表示部に拡大表示させ、判定ステップでオリジナル画像の撮像範囲内であると判定された場合、画像記憶部に記憶されているオリジナル画像の中から表示領域に対応する対応領域をトリミングして表示部に表示させる。
 本発明の目的を達成するためのプログラムは、画像処理装置のコンピュータを、撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像であって、且つ連続する撮像の前後で撮像範囲の一部を重複させながら撮像を実行して得られた複数の撮像画像を取得する画像取得部と、画像取得部が取得した複数の撮像画像から、複数の撮像画像を縮小処理した複数の縮小画像が連結されているパノラマ画像を生成するパノラマ画像生成部と、パノラマ画像生成部による縮小処理前の複数の撮像画像をオリジナル画像として画像記憶部に記憶させる画像記憶制御部と、パノラマ画像生成部が生成したパノラマ画像を表示部に表示させる表示制御部と、表示部に表示されているパノラマ画像の中で拡大表示する表示領域を設定する表示領域設定部と、表示領域設定部により設定された表示領域が、オリジナル画像の撮像範囲内であるか否かを判定する判定部として機能させるためのプログラムであって、表示制御部は、判定部が否と判定した場合、パノラマ画像から表示領域をトリミングして表示部に拡大表示させ、判定部がオリジナル画像の撮像範囲内であると判定した場合、画像記憶部に記憶されているオリジナル画像の中から表示領域に対応する対応領域をトリミングして表示部に表示させる。また上記のプログラムを記録したコンピュータ読み取り可能な非一時的有形媒体も本発明の態様に含まれる。
 本発明の画像処理装置及び撮像装置及び画像処理方法及びプログラムは、撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像から、被写体の俯瞰と詳細確認とを可能にする。
第1実施形態の撮像装置の概略図である。 撮像ユニットによるその周囲の被写体の分割撮像の一例を説明するための説明図である。 第1実施形態のタブレット端末の構成を示すブロック図である。 射影変換部による射影変換処理の一例を説明するための説明図である。 (A)は射影変換処理前の撮像画像データの正面図であり、(B)は射影変換処理後の変換画像データの正面図である。 (A)はカット処理部によるカット処理前の変換画像データの正面図であり、(B)はカット処理部によるカット処理後のカット画像データの正面図である。 パノラマ画像生成部により生成されるパノラマ画像データの正面図である。 表示制御部によるパノラマ画像データの表示処理を説明するための説明図である。 表示制御部によるパノラマ画像データの表示処理の変形例を説明するための説明図である。 判定部が否と判定した場合の表示制御部による表示領域の拡大表示を説明するための説明図である。 表示領域がオリジナル画像データの撮像範囲内であると判定部が判定した場合の表示制御部による表示領域の拡大表示を説明するための説明図である。 (A)~(D)は、表示領域がオリジナル画像データの撮像範囲内であると判定部が判定した場合で、且つ表示領域が2つの縮小画像データを跨るように設定された場合の表示制御部による表示領域の拡大表示を説明するための説明図である。 重畳表示モード時に表示部の表示面に表示されるサブ画面を説明するための説明図である。 第1実施形態の撮像装置によるパノラマ画像データの表示処理や表示領域の拡大表示処理の流れを示すフローチャートである。 (A),(B)は、互いに隣接するオリジナル画像データ間での対応領域の位置の第1の遷移処理を説明するための説明図であり、(C),(D)は、対応領域が重複領域内に収まらない大きさ又は形状である場合の第1の遷移処理を説明するための説明図である。 第2実施形態の撮像装置によるトリミング画像データの表示処理の流れを示すフローチャートである。 第3実施形態の撮像装置の構成を示すブロック図である。 (A)は、第1実施形態等の撮像ユニットによるその周囲の被写体の分割撮像の一例を示した説明図であり、(B)は第3実施形態の撮像ユニットによるその周囲の被写体の分割撮像の一例を示した説明図である。 (A)~(C)は、第4実施形態における射影変換処理からパノラマ画像データ生成処理までの流れを説明するための説明図である。 第3実施形態の表示制御部による第2の遷移処理を説明するための説明図である。 第3実施形態の撮像装置によるトリミング画像データの表示処理の流れを示すフローチャートである。 第4実施形態の撮像装置の構成を示すブロック図である。 第4実施形態の撮像ユニットによるその周囲の被写体の分割撮像の一例を説明するための説明図である。 第4実施形態の表示制御部によるパノラマ画像データの表示処理を説明するための説明図である。 第5実施形態の撮像装置の構成を示すブロック図である。 (A),(B),(C)は、第5実施形態におけるパノラマ画像データの生成処理の流れを説明するための説明図である。 (A),(B),(C)は、表示領域がオリジナル画像データの撮像範囲内であると判定部が判定した場合の第5実施形態の表示制御部による表示領域の拡大表示を説明するための説明図である。 判定部が否と判定した場合の第5実施形態の表示制御部による表示領域の拡大表示を説明するための説明図である。 第5実施形態の撮像装置によるパノラマ画像データの表示処理や表示領域の拡大表示処理の流れを示すフローチャートである。 (A),(B)は、上記第5実施形態の撮像装置におけるオリジナル画像データ内での対応領域の位置の移動及び第1の遷移処理を説明するための説明図であり、(C)は第2の遷移処理を説明するための説明図である。 発明を適用可能なスマートフォンの外観斜視図である。 図31に示したスマートフォンの構成を示すブロック図である。 (A),(B)は、本明細書の記載から導き出される発明を説明するための説明図である。
 [撮像装置の全体構成]
 図1は、第1実施形態の撮像装置10の概略図である。図1に示すように、撮像装置10は、大別して、撮像ユニット11と、本発明の画像処理装置に相当するタブレット端末12とを備えている。
 撮像ユニット11は、本発明の回転機構に相当する回転台16(雲台ともいう)と、被写体を撮像する撮像部18とを有している。撮像部18は、図示は省略するが光学系と撮像素子と画像生成回路とを含み、光学系を透過した被写体光を撮像素子により受光して撮像し、画像生成回路が撮像素子から読み出した撮像信号に基づき、本発明の撮像画像に相当する被写体の撮像画像データ20を生成する。
 回転台16は、撮像ユニット11を図中矢印Aで示すパン方向(水平方向)に回転させることにより、撮像部18をパン方向に回転させる。また、撮像部18は、撮像ユニット11内において図中矢印Bで示すチルト方向(垂直方向)に回転可能である。従って、撮像ユニット11は、撮像部18による撮像方向(撮像光軸)をパン方向及びチルト方向に回転可能な所謂パンチルトカメラである。この撮像ユニット11は、回転台16によりパン方向に回転(パンニング)されながら連続して撮像を行うことにより、撮像ユニット11の周囲の被写体を分割して撮像することができる。なお、本明細書における「水平方向」には、撮像ユニット11(撮像部18)を回転させる回転軸に垂直な面に対して平行な方向も含まれる。
 図2は、撮像ユニット11によるその周囲の被写体の分割撮像の一例を説明するための説明図である。図2に示すように、撮像ユニット11は、回転台16により予め設定された一定(ほぼ一定を含む)の回転角度ずつ回転させられながら、各回転角度位置において周囲の被写体をそれぞれ撮像して複数の撮像画像データ20を生成する。すなわち、撮像ユニット11の撮像範囲(図中、点線で表示)をパン方向(水平方向)に移動させながら連続して撮像を実行することで、撮像ユニット11の周囲の被写体を分割撮像する。なお、図中の括弧付き数字(1)~(8)は撮像ユニット11による撮像の順番を示す。
 前述の一定の回転角度は、連続する撮像の前後で撮像部18の撮像範囲の一部が重複(図中、斜線領域で表示)する角度に設定されている。この回転角度は、撮像ユニット11の撮像部18の画角に基づいて定められる。なお、撮像部18の画角は、光学系の焦点距離や撮像素子の撮像面のサイズなどに基づき求められる。また、図中の撮像ユニット11の画角(水平画角)は90°未満であるが、90°以上であってもよい。
 本例の撮像ユニット11はその周囲360°の被写体を分割撮像するので、時系列で最初の撮像により得られた撮像画像データ20は、時系列で2番目の撮像及び最後の撮像によりそれぞれ得られた撮像画像データ20と撮像範囲の一部が重複する。
 なお、本例では回転台16により撮像ユニット11を一定の回転角度ずつ回転させているが、連続する撮像の前後で撮像部18の撮像範囲の一部を重複させるという条件を満たしていれば、必ずしも撮像ユニット11を一定の回転角度で回転させる必要はない。
 図1に戻って、タブレット端末12は、撮像ユニット11からその周囲の被写体を分割撮像して得られた複数の撮像画像データ20を取得し、これら複数の撮像画像データ20に基づき後述するパノラマ画像データ43(図7参照)を生成して、このパノラマ画像データ43の表示やその一部の拡大表示を行う。このタブレット端末12の筐体には操作部27とタッチパネル式の表示部28とが設けられている。
 [第1実施形態のタブレット端末]
 図3は、第1実施形態のタブレット端末12の構成を示すブロック図である。図3に示すように、タブレット端末12は、制御部25と、記憶部26と、操作部27と、表示部28と、インタフェース29とを備える。なお、本例では、説明の煩雑化を防止するために、パノラマ画像データ43の生成及び表示等に関係のないタブレット端末12の構成は図示を省略している。
 制御部25は、例えばCPU(Central Processing Unit)を含む各種の演算部及び処理部及びメモリにより構成されたものであり、操作部27や表示部28からの制御信号に基づき、記憶部26から読み出した各種のプログラムを実行することで、タブレット端末12の全体の動作や処理を統括制御する。
 記憶部26は、制御部25が処理を実行するための各種のプログラムを記憶している。この記憶部26には、パノラマ画像データ43(図7参照)の生成及び表示、その一部の拡大表示を制御部25に実行させるためのプログラム30が格納されている。また、記憶部26は、制御部25から入力される後述のオリジナル画像データ55を記憶する。従って、本例の記憶部26は本発明の画像記憶部として機能する。
 操作部27は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、操作部27は、指などで押下されるとオン状態となり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。制御部25は、操作部27に対する操作を検出し、この操作に応じた処理を実行する。
 表示部28は、制御部25の制御により、静止画像及び動画像を含む画像や文字情報などを表示して視覚的にユーザに情報を伝達すると共に、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルである。この表示部28は、表示パネル32と、この表示パネル32を覆うように配置された操作パネル33とを備える。
 表示パネル32は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル33は、表示部28(表示パネル32)の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。この操作パネル33をユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号が操作パネル33から制御部25へ出力される。制御部25は、操作パネル33から入力される検出信号に基づき、操作パネル33に対するユーザの操作を検出し、この操作に応じた処理を実行する。
 インタフェース29は、撮像ユニット11に有線接続又は無線接続する通信インタフェース、インターネットなどの通信ネットワークを介して撮像ユニット11に接続する通信インタフェース等が用いられる。このインタフェース29は、撮像ユニット11から前述の複数の撮像画像データ20を取得して制御部25へ出力する。なお、撮像ユニット11から複数の撮像画像データ20を直接取得する代わりに、予め図示しないサーバやメモリカード等に記憶されている複数の撮像画像データ20を取得してもよい。この場合、インタフェース29としては、サーバと通信接続する通信インタフェース、或いはメモリカードが装填されるカードインタフェースが用いられる。
 [制御部の機能]
 制御部25(本発明の画像処理装置のコンピュータに相当)は、記憶部26から読み出したプログラム30を実行することにより、画像取得部35と、射影変換部36と、カット処理部37と、パノラマ画像生成部38と、表示制御部39と、画像記憶制御部49と、表示領域設定部51と、判定部52として機能する。
 画像取得部35は、前述のインタフェース29と共に本発明の画像取得部として機能する。画像取得部35は、インタフェース29を介して、撮像ユニット11から前述の複数の撮像画像データ20を取得し、これら複数の撮像画像データ20を射影変換部36へ出力する。また、画像取得部35は、撮像ユニット11からその撮像部18の画角(撮像範囲)に関する情報を取得して射影変換部36へ出力する。
 図4は、射影変換部36による射影変換処理の一例を説明するための説明図である。図4に示すように、射影変換部36は、画像取得部35から入力された複数の撮像画像データ20に対し、撮像ユニット11の画角に基づき同一投影面に射影変換する射影変換処理を施して、複数の変換画像データ41(図5参照)を生成する。本例の射影変換部36は、射影変換処理として、複数の撮像画像データ20を同一投影面である円筒面CSに射影(投影)した画像に円筒変換する円筒変換処理を行う。なお、この円筒変換処理の具体的な方法は、前述の特許文献1に開示されているので、ここでは具体的な説明を省略する。
 図5(A)は、射影変換処理(円筒変換処理)前の撮像画像データ20の正面図であり、図5(B)は、射影変換処理後の変換画像データ41の正面図である。なお、変換画像データ41は、本発明の射影変換処理された撮像画像に相当する。
 図5(A)に示すように、射影変換処理前の撮像画像データ20を並べた場合、各撮像画像データ20内の被写体が所謂あおり(撮像部18の撮像光軸に対する撮像対象面の傾き)の影響を受けるため、撮像範囲の一部が重複する隣接画像データ間で被写体の位置にずれが生じる。これに対して、図5(B)に示すように、円筒変換処理後の変換画像データ41では、あおりの影響が抑えられ、隣接画像データ間での被写体の位置のずれが低減する。
 図3に戻って、射影変換部36は、射影変換処理された複数の変換画像データ41を、カット処理部37と、画像記憶制御部49とにそれぞれ出力する。
 画像記憶制御部49は、射影変換部36による射影変換処理後で且つ後述のカット処理部37によるカット処理前の複数の変換画像データ41を、複数のオリジナル画像データ55として記憶部26に記憶させる。
 図6(A)は、カット処理部37によるカット処理前の変換画像データ41の正面図であり、図6(B)は、カット処理部37によるカット処理後のカット画像データ41Aの正面図である。
 図6(A)に示すように、最初にカット処理部37は、射影変換部36から複数の変換画像データ41が入力された場合、撮像範囲の一部が互いに重複している複数の変換画像データ41における隣接画像データ間の重複領域DRを判別する。本例では、撮像ユニット11を一定角度ずつ回転させながら各回転角度位置において撮像を実行しているため、隣接画像データ間の重複領域DRの範囲(幅)は、撮像ユニット11の画角及び回転角度から求められる。
 次いで、図6(B)に示すように、カット処理部37は、複数の変換画像データ41に対し、隣接画像データ間の重複領域DRを両者の互いに対向する画像端から予め設定した幅でカット処理して、複数のカット画像データ41Aを生成する。そして、カット処理部37は、カット処理後の複数のカット画像データ41Aをパノラマ画像生成部38(図3参照)へ出力する。
 ここで、重複領域DRをカット処理する際の「予め設定された幅」は、カット処理後の複数のカット画像データ41Aにおいて隣接画像データ同士(隣接画像同士)の一部が重複するような大きさに設定されていることが好ましい。この場合、カット処理前の複数の変換画像データ41の中に存在していた被写体の一部がカット処理により消失することが防止される。これにより、複数のカット画像データ41Aに基づき生成された後述のパノラマ画像データ43から、撮像ユニット11の周囲360°の被写体の全体を確実に確認できる。
 さらにこの場合に、「予め設定された幅」は、複数のカット画像データ41Aの隣接画像データ同士の重複量(重複幅)がより小さくなる大きさに設定されていることがより好ましい。後述のパノラマ画像データ43において、隣接画像データ同士の重複量が小さい方がユーザに違和感を与えないためである。
 図7は、パノラマ画像生成部38(図3参照)により生成されるパノラマ画像データ43の正面図である。図7に示すように、パノラマ画像生成部38は、カット処理部37から入力された複数のカット画像データ41Aをそれぞれ縮小処理して複数の縮小画像データ41Bを生成し、生成した複数の縮小画像データ41Bを撮像ユニット11による撮像順に間隔をあけて隣接させた状態で連結してパノラマ画像データ43を生成する。
 カット画像データ41Aを縮小画像データ41Bに縮小処理する際の縮小率は、表示部28にパノラマ画像データ43を表示した場合に、ユーザがパノラマ画像データ43のほぼ全体(一定割合以上の領域でも可)を俯瞰できるような値が好ましく、表示部28(表示パネル32)の解像度等に基づき決定される。
 また、パノラマ画像データ43内における複数の縮小画像データ41Bの隣接画像データ間の間隔の大きさは、隣接画像データ同士が連続性を有しているとの視覚効果をユーザに与えるために、所定の範囲内の大きさに制限されていることが好ましい。この所定の範囲内とは、例えば、隣接画像データ間の重複領域DR(図7では図示を省略)の幅よりも狭い範囲である。
 なお、本例では、複数の変換画像データ41にカット処理、縮小処理、及び連結処理を順番に施してパノラマ画像データ43を生成しているが、パノラマ画像データ43の生成方法はこれに限定されるものではない。例えば、カット画像データ41Aを前述の撮像順に間隔をあけて連結して超高解像度のパノラマ画像データ(図示せず)を生成した後、このパノラマ画像データ(図示せず)を縮小処理することにより、パノラマ画像データ43を生成してもよい。
 さらに、パノラマ画像生成部38では前述の超高解像度のパノラマ画像データ(図示せず)に対して縮小処理を行わず、後述の表示制御部39にて超高解像度のパノラマ画像データを縮小処理してもよく、この場合には表示制御部39は本発明のパノラマ画像生成部の一部として機能する。
 このようにパノラマ画像生成部38は、カット処理されている複数の縮小画像データ41Bが前述の撮像順に間隔をあけて隣接させた状態で連結されているパノラマ画像データ43を生成する。そして、パノラマ画像生成部38は、生成したパノラマ画像データ43を表示制御部39(図3参照)へ出力する。
 図8は、表示制御部39(図3参照)によるパノラマ画像データ43の表示処理を説明するための説明図である。また、図9は、表示制御部39によるパノラマ画像データ43の表示処理の変形例を説明するための説明図である。図8に示すように、表示制御部39は、パノラマ画像生成部38から入力されたパノラマ画像データ43を既述の図3に示した表示部28(表示パネル32)に出力して、パノラマ画像データ43を表示部28に全体表示(ほぼ全体表示を含む)させる。
 なお、表示部28の表示面上に表示させるパノラマ画像データ43の大きさは変更可能である。例えば、図9に示すように、表示制御部39がパノラマ画像データ43を表示部28に表示させる場合に、パノラマ画像データ43を拡大してその一部分のみを表示部28に表示させることもできる。
 図3及び図8に戻って、表示領域設定部51は、前述の操作パネル33と共に本発明の表示領域設定部51として機能する。表示領域設定部51は、表示部28によるパノラマ画像データ43の表示中に、ユーザが操作パネル33を操作して表示部28の表示面上のパノラマ画像データ43の中で選択した領域を、このパノラマ画像データ43の中で拡大表示する表示領域VRとして設定する。なお、図8には、撮像部18の画角の範囲内、すなわち、オリジナル画像データ55の撮像範囲内に収まる大きさに設定された表示領域VRと、オリジナル画像データ55の撮像範囲内に収まらない大きさに設定された表示領域VRと、を図示している。表示領域設定部51による表示領域VRの設定範囲を示す設定範囲情報は、表示領域設定部51から判定部52へ出力される。
 判定部52は、表示領域設定部51から入力された設定範囲情報に基づき、表示領域設定部51により設定された表示領域VRが、オリジナル画像データ55の撮像範囲内(すなわち、撮像部18の画角の範囲内)のサイズであるか否かを判定する。ここで、縮小画像データ41Bの縮小率は既知であるので、パノラマ画像データ43上でのオリジナル画像データ55の撮像範囲(撮像部18の画角の範囲)の大きさを求められる。
 従って、判定部52は、表示領域VRの水平方向及び垂直方向のサイズが、パノラマ画像データ43上でのオリジナル画像データ55の水平方向及び垂直方向のサイズ(撮像部18の水平画角及び垂直画角の範囲)をそれぞれ下回っている場合、表示領域VRがオリジナル画像データ55の撮像範囲内であると判定する。逆に判定部52は、表示領域VRの水平方向及び垂直方向のサイズの両方が、パノラマ画像データ43上でのオリジナル画像データ55の水平方向及び垂直方向のサイズ(撮像部18の水平画角及び垂直画角の範囲)を下回らない場合、表示領域VRがオリジナル画像データ55の撮像範囲内に収まらない(すなわち、否)と判定する。そして、判定部52は、判定結果を表示制御部39へ出力する。
 表示制御部39は、表示領域設定部51により表示領域VRが設定された場合、パノラマ画像データ43内の表示領域VRを表示部28に拡大表示させる。この際に、表示制御部39は、判定部52から入力された判定結果に基づき、表示領域VRの拡大表示方法を変える。
 図10は、判定部52が否と判定した場合の表示制御部39による表示領域VRの拡大表示を説明するための説明図である。図10に示すように、表示制御部39は、判定部52が否と判定した場合、パノラマ画像データ43の中から表示領域VRに対応する領域をトリミングし、トリミングしたトリミング画像データ56を表示部28(表示パネル32)の画面サイズに合わせて拡大表示させる。
 図11は、表示領域VRがオリジナル画像データ55の撮像範囲内であると判定部52が判定した場合の表示制御部39による表示領域VRの拡大表示を説明するための説明図である。図11に示すように、表示制御部39は、最初に、記憶部26内に記憶されているオリジナル画像データ55の中から、表示領域VRが設定された縮小画像データ41Bに対応するオリジナル画像データ55を検索する。
 次いで、表示制御部39は、検索したオリジナル画像データ55内での表示領域VRに対応する対応領域CRを判別する。カット画像データ41Aのカット幅及び縮小画像データ41Bの縮小率は既知であるので、表示制御部39は、縮小画像データ41B内の表示領域VRの位置座標及びその範囲から、オリジナル画像データ55内での対応領域CRの位置座標及びその範囲を決定可能である。
 そして、表示制御部39は、検索したオリジナル画像データ55の中から対応領域CRをトリミングし、この対応領域CRのトリミング画像データ57を表示部28に表示させる。なお、表示制御部39は、トリミング画像データ57の解像度が表示部28の解像度よりも低い場合又は高い場合には、トリミング画像データ57を表示部28の解像度に合わせて拡大表示又は縮小表示してもよい。
 図12(A)~(D)は、表示領域VRがオリジナル画像データ55の撮像範囲内(撮像部18の画角の範囲内)であると判定部52が判定した場合で、且つ表示領域VRが2つの縮小画像データ41Bを跨るように設定された場合の表示制御部39による表示領域VRの拡大表示を説明するための説明図である。
 図12(A)に示すように、最初に表示制御部39は、表示領域VRが跨るように設定された2つの縮小画像データ41Bの中で表示領域VR内の面積(以下、領域内面積という)が大きい方を判別し、領域内面積が大きい方の縮小画像データ41Bに対応するオリジナル画像データ55を記憶部26内から検索する。
 次いで、図12(B),(C)に示すように、表示制御部39は、検索したオリジナル画像データ55の中から表示領域VRに対応する対応領域CRを判別する。この場合の表示領域VRに対応する対応領域CRとは、当初の表示領域VRの設定位置から領域内面積が大きい方の縮小画像データ41B内へ平行移動した位置にある表示領域VR1に対応する対応領域CRである。なお、この平行移動の移動量は、領域内面積が大きい方の縮小画像データ41B外にある表示領域VRの幅の大きさである。
 そして、図12(D)に示すように、表示制御部39は、検索したオリジナル画像データ55の中から表示領域VR1に対応する対応領域CRをトリミングし、この対応領域CRのトリミング画像データ57を表示部28に表示させる。
 なお、表示制御部39は、オリジナル画像データ55からトリミングした対応領域CRのトリミング画像データ57を表示部28に表示させる場合、パノラマ画像データ43内での表示領域VRの範囲を示すサブ画面59(図13参照)を表示部28の表示面の一部に表示させる重畳表示モードを有している。
 図13は、重畳表示モード時に表示部28の表示面に表示されるサブ画面59を説明するための説明図である。表示制御部39は、操作部27又は操作パネル33を介してサブ画面表示指示の入力を受け付けた場合、パノラマ画像データ43を縮小した縮小パノラマ画像データ43sを生成し、この縮小パノラマ画像データ43sを含むサブ画面59を表示部28の表示面の一部に表示させる。この縮小パノラマ画像データ43sは、パノラマ画像データ43の全体(ほぼ全体を含む)を示す画像データあり、本発明の全体画像に相当する。サブ画面59の表示により、トリミング画像データ57を表示部28に表示している場合であっても、ユーザはパノラマ画像データ43の全体を把握することができる。
 また、表示制御部39は、サブ画面59を表示部28に表示させる場合、このサブ画面59内の縮小パノラマ画像データ43s上に、表示領域設定部51により設定された表示領域VRの範囲を示す範囲画像VRsを重畳表示させる。これにより、ユーザは、表示部28に表示されているトリミング画像データ57がパノラマ画像データ43のどの領域を拡大表示したものであるかを容易に判別することができる。
 [第1実施形態の撮像装置の作用]
 次に、図14を用いて上記構成の撮像装置10の作用について説明を行う。図14は、第1実施形態の撮像装置10によるパノラマ画像データ43の表示処理や表示領域VRの拡大表示処理(本発明の画像処理方法)の流れを示すフローチャートである。
 <パノラマ画像データの表示処理>
 最初に撮像ユニット11がその周囲の被写体の中で任意の方位にある被写体を撮像して撮像画像データ20を生成する(ステップS1)。次いで、撮像ユニット11は、回転台16により予め定めた一定角度だけ回転された後(ステップS2でNO、ステップS3)、再び周囲の被写体を撮像する(ステップS1)。これにより、最初の撮像と撮像範囲の一部を重複させた状態で撮像ユニット11による2回目の撮像が実行され、この撮像ユニット11により新たな撮像画像データ20が生成される。
 以下同様に、撮像ユニット11は回転台16により一定角度ずつ回転される毎に、各回転角度位置において周囲の被写体を撮像して複数の撮像画像データ20を生成する(ステップS2でNO)。これにより、既述の図2に示したように、撮像ユニット11の周囲360°の被写体がこの撮像ユニット11により撮像され、撮像ユニット11による撮像が終了する(ステップS2でYES)。その結果、撮像ユニット11の周囲360°を分割撮像した複数の撮像画像データ20が得られる。
 タブレット端末12にてプログラム30の起動操作がなされると、制御部25が記憶部26からプログラム30を読み出して実行することにより、画像取得部35と、射影変換部36と、カット処理部37と、パノラマ画像生成部38と、表示制御部39と、画像記憶制御部49と、表示領域設定部51と、判定部52として機能する。
 最初に画像取得部35が、インタフェース29を介して、撮像ユニット11から複数の撮像画像データ20を取得する(ステップS4、本発明の画像取得ステップに相当)。なお、画像取得部35は、撮像ユニット11による撮像終了後に複数の撮像画像データ20を一括して取得してもよいし、撮像ユニット11が撮像を行う毎に撮像ユニット11から撮像画像データ20を順次に取得してもよい。これら複数の撮像画像データ20は、画像取得部35から射影変換部36へ出力される。
 複数の撮像画像データ20の入力を受けた射影変換部36は、既述の図4及び図5に示したように、複数の撮像画像データ20に対して射影変換処理(円筒変換処理)を行って複数の変換画像データ41を生成する(ステップS5)。これにより、あおりの影響が抑えられ、複数の変換画像データ41の隣接画像データ間での被写体の位置のずれが低減する。複数の変換画像データ41は、射影変換部36からカット処理部37及び画像記憶制御部49へそれぞれ出力される。
 複数の変換画像データ41の入力を受けた画像記憶制御部49は、これら複数の変換画像データ41を複数のオリジナル画像データ55として記憶部26に記憶させる(ステップS6、本発明の画像記憶制御ステップに相当)。
 一方、複数の変換画像データ41の入力を受けたカット処理部37は、既述の図6に示したように、これら複数の変換画像データ41に対して、隣接画像データ間の重複領域DRを両者の互いに対向する画像端から予め設定した幅でカットするカット処理を行う(ステップS7、本発明のカット処理ステップに相当)。このカット処理により、複数の変換画像データ41から複数のカット画像データ41Aが生成される。
 また本例のカット処理では、複数のカット画像データ41Aの隣接画像データ同士の一部が重複するように、重複領域DRをカットする幅の大きさが調整されている。これにより、既述の通り、カット処理前の複数の変換画像データ41の中に存在していた被写体の一部がカット処理により消失することが防止される。そして、複数のカット画像データ41Aは、カット処理部37からパノラマ画像生成部38へ出力される。
 複数のカット画像データ41Aの入力を受けたパノラマ画像生成部38は、複数のカット画像データ41Aを縮小処理して複数の縮小画像データ41Bを生成する(ステップS8)。次いで、既述の図7に示したようにパノラマ画像生成部38は、生成した複数の縮小画像データ41Bを撮像ユニット11による撮像順に間隔をあけて隣接させた状態で連結してパノラマ画像データ43を生成する(ステップS9、本発明のパノラマ画像生成ステップに相当)。各縮小画像データ41Bを連結する際に間隔をあけているので、縮小画像データ41Bの隣接画像データ同士の一部が重複している場合であっても、ユーザに与える違和感を低減させることができる。
 さらに本例では、複数の縮小画像データ41Bからパノラマ画像データ43を生成する場合に、連続する前後の縮小画像データ41B間の重複領域DR同士を重ね合せた状態で連結する一般的な連結処理(パノラマ合成処理ともいう)を行わないので、重複領域DRに存在する遠近のいずれか一方にある被写体が正常に合成されなかったり、被写体が二重像になったり、画像間の境界部分に段差(ずれ)が生じたりすることが防止される。
 なお、既述の通り、パノラマ画像生成部38によるパノラマ画像データ43の生成方法は適宜変更してもよい。このようにして表示パネル32の表示面に表示可能な大きさのパノラマ画像データ43が得られる。このパノラマ画像データ43はパノラマ画像生成部38から表示制御部39へ出力される。
 パノラマ画像データ43の入力を受けた表示制御部39は、このパノラマ画像データ43を表示部28へ出力して、既述の図8に示したように、パノラマ画像データ43を表示部28に全体表示させる(ステップS10、本発明の表示制御ステップに相当)。この表示部28に表示されるパノラマ画像データ43から、撮像ユニット11の周囲の被写体の全体を俯瞰することができる。また、縮小処理したパノラマ画像データ43の表示を行うので、縮小処理されていないパノラマ画像データ43の表示を行う場合と比較して、図示しない表示メモリ(Video RAM)の使用量を節約することができる。
 <表示領域の拡大表示処理>
 表示部28によるパノラマ画像データ43の表示中に、ユーザが操作パネル33を操作してパノラマ画像データ43の中で拡大表示する領域を選択すると、表示領域設定部51がユーザの選択した領域を表示領域VRとして設定する(ステップS11、本発明の表示領域設定ステップに相当)。そして、表示領域設定部51から判定部52に対して、表示領域VRの設定範囲を示す設定範囲情報が出力される。
 設定範囲情報の入力を受けた判定部52は、この設定範囲情報が示す表示領域VRが、オリジナル画像データ55の撮像範囲内(撮像部18の画角の範囲内)であるか否かを判定し、この判定結果を表示制御部39へ出力する(ステップS12、本発明の判定ステップに相当)。
 表示制御部39は、判定部52から否との判定結果の入力を受けた場合、既述の図10に示したように、パノラマ画像データ43の中から表示領域VRに対応する領域をトリミングする(ステップS12でNO、ステップS13)。そして、表示制御部39は、パノラマ画像データ43からトリミングしたトリミング画像データ56を表示部28に出力して、このトリミング画像データ56を表示部28に拡大表示させる(ステップS14、本発明の表示制御ステップに相当)。これにより、ユーザは、選択した表示領域VRの詳細を確認することができる。
 一方、表示制御部39は、判定部52から表示領域VRがオリジナル画像データ55の撮像範囲内(撮像部18の画角の範囲内)であるとの判定結果の入力を受けた場合、この表示領域VRが設定された縮小画像データ41Bに対応するオリジナル画像データ55を記憶部26内から検索する(ステップS12でYES)。次いで、表示制御部39は、前述の図11に示したように、検索したオリジナル画像データ55の中から表示領域VRに対応する対応領域CRをトリミングする(ステップS15)。
 なお、表示制御部39は、既述の図12に示したように、表示領域VRが2つの縮小画像データ41Bを跨るように設定された場合、2つの縮小画像データ41Bの中で前述の領域内面積が大きい方を判別し、領域内面積が大きい方に対応するオリジナル画像データ55を記憶部26内から検索する。次いで、表示制御部39は、検索したオリジナル画像データ55の中から、表示領域VRに対応する対応領域CRとして、既述の図12(B)に示した表示領域VR1に対応する対応領域CRをトリミングする。
 そして、表示制御部39は、オリジナル画像データ55からトリミングしたトリミング画像データ57を表示部28に出力して、トリミング画像データ57を表示部28に表示させる(ステップS16、本発明の表示制御ステップに相当)。このように、高解像度のオリジナル画像データ55からトリミングしたトリミング画像データ57を表示部28に表示することで、ユーザは選択した表示領域VRのより詳細を確認することができる。
 ユーザが操作パネル33等を操作して表示領域VRの再設定を行った場合、前述のステップS11以降の処理が繰り返し実行される(ステップS30でYES)。
 [第1実施形態の効果]
 以上のように、本発明の第1実施形態の撮像装置10では、表示部28の表示面のサイズに対応した解像度のパノラマ画像データ43の表示と、トリミング画像データ56又はトリミング画像データ57による表示領域VRの拡大表示とをシームレスに切り替えることができる。特に、トリミング画像データ57はオリジナル画像データ55からトリミングした高解像度データであるので、パノラマ画像データ43の表示とトリミング画像データ57の表示との切り替えを行うことにより、閲覧性と被写体の確実な視認とを両立することができる。その結果、被写体の俯瞰と詳細確認とが可能になる。
 また、パノラマ画像データ43を生成する際に、連続する前後の縮小画像データ41B間の重複領域DR同士を重ね合わせた状態で連結する一般的な連結処理(パノラマ合成処理)を行わずに、カット処理された複数の縮小画像データ41Bを撮像ユニット11による撮像順に間隔をあけて隣接させた状態で連結してパノラマ画像データ43を生成するので、パノラマ画像データ43の不良(合成不良)を回避することができる。また、単純に画像データを並べて配置した場合よりもあおりの影響が少なく、パノラマ画像データ43が見易くなる。
 [第2実施形態の撮像装置]
 次に、本発明の第2実施形態の撮像装置について説明を行う。この第2実施形態の撮像装置では、オリジナル画像データ55の対応領域CRからトリミングされたトリミング画像データ57が表示部28に表示されている場合において、ユーザの操作に応じてオリジナル画像データ55からトリミングする対応領域CRの位置を移動可能にしている。
 なお、第2実施形態の撮像装置は、上記第1実施形態の撮像装置10と基本的に同じ構成であり、上記第1実施形態と機能や構成上同一のものについては、同一符号を付してその説明は省略する。
 第2実施形態の操作パネル33は、表示部28によるトリミング画像データ57の表示中に、ユーザからオリジナル画像データ55の中で対応領域CRの位置を移動させる移動操作を受け付ける。この移動操作とは、例えば、ユーザが表示部28の表示面上で行うスワイプ(swipe)操作である。
 例えばユーザは、表示部28によるトリミング画像データ57の表示中に、表示面外にある周辺領域(対応領域CR外の領域)の画像データを確認する場合、表示部28の表示面上でスワイプ操作を行う。操作パネル33は、ユーザが表示パネル32の表示面上で行ったスワイプ操作を対応領域CRの位置の移動操作として検出して、移動操作検出信号を表示制御部39へ出力する。この移動操作検出信号には、対応領域CRの位置の移動方向を示すスワイプ操作の方向、及び対応領域CRの位置の移動量を示すスワイプ操作の操作量が含まれる。
 第2実施形態の表示制御部39は、操作パネル33を介して対応領域CRの位置を移動させる移動操作を受け付ける。表示制御部39は、操作パネル33から入力された移動操作検出信号に基づき、ユーザが行った移動操作に応じてオリジナル画像データ55の中からトリミングする対応領域CRの位置を移動させる。また同時に、表示制御部39は、オリジナル画像データ55の中から新たな位置の対応領域CRを順次にトリミングして、トリミング画像データ57を表示部28に順次出力する。これにより、ユーザが行った移動操作に応じて、表示部28に表示されるトリミング画像データ57が更新される。
 また、表示制御部39は、ユーザが行った移動操作に応じて、互いに隣接するオリジナル画像データ55うちの一方のオリジナル画像データ55内にある対応領域CRの位置を、他方のオリジナル画像データ55内に遷移させる第1の遷移処理を実行する。
 図15(A),(B)は、互いに隣接するオリジナル画像データ55間での対応領域CRの位置の第1の遷移処理を説明するための説明図である。ここでは、図中左側の一方のオリジナル画像データ55から図中右側の他方のオリジナル画像データ55に対応領域CRの位置が遷移され、さらに、対応領域CRの大きさ及び形状が重複領域DR内に収まる大きさ及び形状であるものとして説明する。なお、図中左側の一方のオリジナル画像データ55は本発明の一方の画像に相当し、図中右側の他方のオリジナル画像データ55は本発明の他方の画像に相当する。
 図15(A)に示すように、表示制御部39は、ユーザが行った移動操作により図中左側の一方のオリジナル画像データ55内での対応領域CRの位置が、図中右側の他方のオリジナル画像データ55に対向(隣接)する側の画像端まで移動した場合、対応領域CRの位置を一時的に停止させる一時停止処理を行う。
 表示制御部39は、一時停止処理後、操作パネル33を介して対応領域CRの位置を一方のオリジナル画像データ55から他方のオリジナル画像データ55に向けて移動させる移動操作をさらに受け付けた場合に、第1の遷移処理を実行する。具体的に表示制御部39は、図15(B)に示すように、一方のオリジナル画像データ55の画像端にある対応領域CRの第1の位置を、第1の位置に対応する他方のオリジナル画像データ55内の第2の位置に遷移させる。
 ここで第1の位置に対応する第2の位置とは、対応領域CRの大きさ及び形状が重複領域DR内に収まる大きさ及び形状である場合、一方のオリジナル画像データ55の「重複領域DR」内での対応領域CRの位置(第1の位置)に対応する他方のオリジナル画像データ55の「重複領域DR」内での位置である。すなわち、第1の遷移処理の前後において、一方及び他方のオリジナル画像データ55の互いの重複領域DR内での対応領域CRの位置関係は同じとなる。
 例えば第1の位置の代表点を点P1とし、第2の位置の代表点を点P2とした場合、第1の位置の点P1のy座標と第2の位置の点P2のy座標は同じ座標となるので、表示制御部39は、点P1のy座標から点P2のy座標を決定できる。また、重複領域DR内の任意の位置を原点とした場合、一方のオリジナル画像データ55の重複領域DR内での点P1のx座標と、他方のオリジナル画像データ55の重複領域DR内での点P2のx座標とは同じ座標になる。このため、表示制御部39は、点P1のx座標から点P2のx座標を決定できる。
 このように表示制御部39は、一方のオリジナル画像データ55内にある対応領域CRの第1の位置から、この第1の位置に対応する他方のオリジナル画像データ55内の第2の位置を決定することで、対応領域CRの位置の第1の遷移処理を実行する。
 図15(C),(D)は、対応領域CRが重複領域DR内に収まらない大きさ又は形状である場合の第1の遷移処理を説明するための説明図である。
 図15(C)に示すように、表示制御部39は、ユーザが行った移動操作により一方のオリジナル画像データ55内での対応領域CRの位置が画像端まで移動した場合、前述の一時停止処理を行う。また、表示制御部39は、一時停止処理後、操作パネル33を介して対応領域CRの位置を一方のオリジナル画像データ55から他方のオリジナル画像データ55に移動させる移動操作をさらに受け付けた場合に、図15(D)に示すように第1の遷移処理を実行する。
 具体的に表示制御部39は、一方のオリジナル画像データ55内にある対応領域CRの第1の位置を、第1の位置に対応する他方のオリジナル画像データ55内の第2の位置に遷移させる。
 ただし、対応領域CRが重複領域DR内に収まらない大きさ又は形状である場合、一方のオリジナル画像データ55の対応領域CR内で且つ重複領域DR外の画像は、他方のオリジナル画像データ55内には存在していない。従って、ここでいう第1の位置に対応する第2の位置とは、一方のオリジナル画像データ55の対応領域CR内の重複領域DR(図中、斜線で表示)に対応する他方のオリジナル画像データ55内の重複領域DR(図中、斜線で表示)を含む位置である。すなわち、第1の遷移処理の前後において、一方のオリジナル画像データ55内の対応領域CRに含まれる重複領域DRと、他方のオリジナル画像データ55内の対応領域CRに含まれる重複領域DRとが対応関係にある。
 例えば、第1の位置の左端側及び右端側の代表点をそれぞれ点L1,点R1とし、第2の位置の左端側及び右端側の代表点をそれぞれ点L2,R2とした場合、点L1,R1のy座標は、点L2,R2のy座標と同じ座標になる。このため、表示制御部39は、点L1,R1のy座標から点L2,R2のy座標を決定する。
 また、表示制御部39は、点L1のx座標に対応する点L2のx座標として、他方のオリジナル画像データ55における一方のオリジナル画像データ55に対向する側の画像端の座標を決定する。さらに、表示制御部39は、点L2のx座標に対して対応領域CRのx方向の幅の大きさを加えた値を点R2のx座標として決定する。
 このように表示制御部39は、一方のオリジナル画像データ55内にある対応領域CRの第1の位置と、対応領域CRのx方向の幅の大きさとから、第1の位置に対応する他方のオリジナル画像データ55内の第2の位置を決定して、対応領域CRの位置の第1の遷移処理を実行する。
 表示制御部39は、第1の遷移処理後に他方のオリジナル画像データ55から対応領域CRをトリミングして、トリミングしたトリミング画像データ57を表示部28に出力する。これにより、ユーザが行った移動操作に応じて、表示部28に表示されるトリミング画像データ57が更新される。
 [第2実施形態の撮像装置の作用]
 次に、図16を用いて第2実施形態の撮像装置の作用について説明を行う。図16は、第2実施形態の撮像装置によるトリミング画像データ57の表示処理の流れを示すフローチャートである。なお、ステップS16までの処理は、既述の第1実施形態の図14に示したステップS16までの処理と基本的に同じであるので、ここでは具体的な説明を省略する。
 ステップS16にて表示部28に表示されたトリミング画像データ57を確認したユーザが、表示部28の表示面外にある周辺領域の画像データを確認するために表示面上でスワイプ操作を行うと、このスワイプ操作が対応領域CRの位置の移動操作として操作パネル33により検出される。そして、操作パネル33は移動操作検出信号を表示制御部39へ出力する。これにより、表示制御部39は、操作パネル33を介して対応領域CRの位置を移動させる移動操作を受け付ける(ステップS17)。
 次いで、表示制御部39は、操作パネル33からの移動操作検出信号に基づき、オリジナル画像データ55の中で対応領域CRの位置を移動させながら、オリジナル画像データ55の中から新たな位置の対応領域CRをトリミングして、トリミング画像データ57を表示部28に順次出力する(ステップS18)。これにより、移動操作に応じて表示部28に表示されるトリミング画像データ57が更新される(ステップS19)。以下、移動操作により対応領域CRの位置がオリジナル画像データ55の画像端に達するまで、上述のステップS17からステップS19までの処理が繰り返し実行される(ステップS20でNO)。
 一方、表示制御部39は、既述の図15(A),(C)に示したように、移動操作により一方のオリジナル画像データ55内での対応領域CRの位置が、他方のオリジナル画像データ55に対向する側の画像端まで移動した場合、対応領域CRの位置を一時的に停止させる一時停止処理を行う(ステップS20でYES、ステップS21)。この一時停止処理後、ユーザが操作パネル33にて対応領域CRの位置を他方のオリジナル画像データ55に向けて移動させる移動操作を行わなかった場合、前述のステップS17からステップS21までの処理が繰り返し実行される(ステップS22でNO)。
 これに対して、一時停止処理後にユーザが操作パネル33にて対応領域CRの位置を他方のオリジナル画像データ55に向けて移動させる移動操作を行った場合、この移動操作を受け付けた表示制御部39は第1の遷移処理を実行する(ステップS22でYES)。この第1の遷移処理により、一方のオリジナル画像データ55内の画像端にある対応領域CRの第1の位置が、既述の図15(B)又は図15(D)に示したように、第1の位置に対応する他方のオリジナル画像データ55内の第2の位置に遷移される(ステップS23)。
 第1の遷移処理後、表示制御部39は、他方のオリジナル画像データ55から対応領域CRをトリミングして、新たなトリミング画像データ57を表示部28に出力する(ステップS24)。これにより、表示部28の表示が、他方のオリジナル画像データ55からトリミングしたトリミング画像データ57に更新される(ステップS25)。
 以下、ユーザが移動操作を終了するまで、ステップS17以降の処理が繰り返し実行される(ステップS26)。
 [第2実施形態の効果]
 以上のように第2実施形態の撮像装置では、ユーザの移動操作に応じてオリジナル画像データ55の中でトリミングする対応領域CRの位置を移動させるようにしたので、対応領域CRの位置の移動に応じて表示部28の表示面上でのトリミング画像データ57の表示を更新することができ、撮像ユニット11の周囲の被写体の細部の詳細確認を行う位置を自由に変えることができる。また、ユーザの移動操作により一方のオリジナル画像データ55内での対応領域CRの位置が画像端まで移動した際に、一時停止処理を経て第1の遷移処理を行うことにより、パノラマ画像データ43の個々の画像間の隙間(スリット)をユーザに意識させることなく、表示部28の表示内容を、他方のオリジナル画像データ55からトリミングしたトリミング画像データ57に更新することができる。
 また、第1の遷移処理の前に一時停止処理を行うようにしたので、対応領域CRの第1の遷移処理が行われることをユーザに予告することができ、表示部28の表示が他方のオリジナル画像データ55からトリミングしたトリミング画像データ57に切り替わった場合にユーザに与える違和感を低減させることができる。
 [第3実施形態の撮像装置]
 次に、図17を用いて本発明の第3実施形態の撮像装置10Aについて説明を行う。図17は、第3実施形態の撮像装置10Aの構成を示すブロック図である。上記第2実施形態の撮像装置では、ユーザの移動操作に応じて一方のオリジナル画像データ55内での対応領域CRの位置が画像端まで移動した場合に、一時停止処理を経て第1の遷移処理を行っているが、第3実施形態の撮像装置10Aでは第1の遷移処理とは異なる第2の遷移処理を行う。
 図17に示すように、撮像装置10Aは、撮像ユニット11によるその周囲の被写体の分割撮像の方法が異なる点と、タブレット端末12Aが上記第2実施形態(第1実施形態)とは異なる制御部25Aを備える点とを除けば、第2実施形態の撮像装置と基本的に同じ構成である。このため、上記各実施形態と機能や構成上同一のものについては、同一符号を付してその説明は省略する。
 図18(A)は、上記各実施形態の撮像ユニット11によるその周囲の被写体の分割撮像の一例を示した説明図であり、図18(B)は第3実施形態の撮像ユニット11によるその周囲の被写体の分割撮像の一例を示した説明図である。
 図18(A)に示すように、上記各実施形態の撮像ユニット11は、回転台16により前述の一定の回転角度ずつ回転されながら、各回転角度位置において周囲の被写体をそれぞれ撮像して複数の撮像画像データ20を生成する。
 これに対して、図18(B)に示すように、第3実施形態の撮像ユニット11は、回転台16により前述の一定の回転角度の1/2の回転角度ずつ回転されながら、各回転角度位置において周囲の被写体をそれぞれ撮像して複数の撮像画像データ20を生成する。すなわち、撮像ユニット11は、上記各実施形態と同様に回転台16により前述の一定の回転角度ずつ回転された位置で周囲の被写体の第1の撮像を行い、且つ第1の撮像を行うごとに第1の撮像の位置から前述の一定の回転角度の1/2の回転角度だけさらに回転した位置で周囲の被写体の第2の撮像を行う。このため、撮像ユニット11は、第1の撮像[図中の括弧付き数字(1)、(2)…]と第2の撮像[図中の括弧付き数字(1A)、(2A)…]とにより、上記各実施形態の2倍の複数の撮像画像データ20を生成する。
 図17に戻って、タブレット端末12Aの制御部25Aは、記憶部26から読み出したプログラム30を実行することで、上記第1実施形態で説明した表示領域設定部51及び判定部52の他に、画像取得部35Aと、射影変換部36Aと、カット処理部37Aと、パノラマ画像生成部38Aと、表示制御部39Aと、画像記憶制御部49Aとして機能する。
 画像取得部35Aは、インタフェース29を介して、撮像ユニット11から第1の撮像及び第2の撮像によりそれぞれ得られた複数の撮像画像データ20を取得して、これら複数の撮像画像データ20を射影変換部36に出力する。
 図19(A)~(C)は、第4実施形態における射影変換処理からパノラマ画像データ生成処理までの流れを説明するための説明である。なお、図中の括弧付き数字(1)、(1A)、(2)、(2A)、・・・は撮像ユニット11による撮像順を示す。また、括弧付き数字が(1)、(2)、・・・の撮像画像データ20は第1の撮像により得られ、括弧付き数字が(1A)、(2A)、・・・の撮像画像データ20は第2の撮像により得られたことを示す[図18(B)参照]。
 図19(A),(B)に示すように、射影変換部36Aは、第1の撮像(本発明の一方の撮像に相当)で得られた複数の撮像画像データ20と、第2の撮像(本発明の他方の撮像に相当)で得られた複数の撮像画像データ20とに対してそれぞれ射影変換処理(円筒変換処理)を行い、2組の複数の変換画像データ41を生成する。そして、射影変換部36Aは、第1の撮像で得られた複数の変換画像データ41をカット処理部37Aへ出力する。また、射影変換部36Aは、第1の撮像及び第2の撮像でそれぞれ得られた2組の複数の変換画像データ41を画像記憶制御部49Aへ出力する。
 画像記憶制御部49Aは、第1の撮像で得られた複数の撮像画像データ20に対応する複数の変換画像データ41を、複数の第1のオリジナル画像データ55A(図17参照)として記憶部26に記憶させる。また、画像記憶制御部49Aは、第2の撮像で得られた複数の撮像画像データ20に対応する複数の変換画像データ41を、複数の第2のオリジナル画像データ55B(図17参照)として記憶部26に記憶させる。これにより、複数の第1のオリジナル画像データ55Aと、第2のオリジナル画像データ55Bとを含むオリジナル画像データ55が記憶部26に記憶される。
 次いで、図示は省略するが、カット処理部37Aは、第1の撮像で得られた複数の変換画像データ41に対して、既述の第1実施形態の図6に示したようなカット処理を行って複数のカット画像データ41Aを生成する。
 図19(C)に示すように、パノラマ画像生成部38Aは、カット処理部37Aから入力された複数のカット画像データ41Aを縮小処理した縮小画像データ41Bを、撮像ユニット11による撮像順に間隔をあけて連結してパノラマ画像データ43を生成する。なお、第1実施形態で説明したようにパノラマ画像データ43の生成方法は特に限定されるものではない。
 このように第3実施形態では、第1の撮像及び第2の撮像により上記各実施形態の2倍の数の撮像画像データ20を生成するが、第1の撮像及び第2の撮像の一方の第1の撮像により得られた撮像画像データ20を用いてパノラマ画像データ43を生成する。なお、第1の撮像により得られた撮像画像データ20を用いてパノラマ画像データ43を生成する代わりに、第2の撮像により得られた撮像画像データ20を用いてパノラマ画像データ43を生成してもよい。
 図17に戻って、表示制御部39Aは、上記各実施形態と同様に、パノラマ画像生成部38Aから入力されたパノラマ画像データ43を表示部28に出力して、パノラマ画像データ43を表示部28に表示させる。
 また、表示制御部39Aは、表示領域設定部51にて表示領域VRが設定された場合、上記第2実施形態と同様に、判定部52の判定結果に基づきトリミング画像データ56(図10参照)、又は第1のオリジナル画像データ55Aの対応領域CRからトリミングしたトリミング画像データ57(図11参照)を表示部28に表示させる。
 さらに、表示制御部39Aは、表示部28によるトリミング画像データ57の表示中に、操作パネル33から対応領域CRの位置の移動操作を受け付けた場合、上記第2実施形態と同様に、この移動操作に応じて第1のオリジナル画像データ55Aの中からトリミングする対応領域CRの位置を移動させる。そして、表示制御部39Aは、既述の図15(A)等と同様に、移動操作により互いに隣接する第1のオリジナル画像データ55Aの一方の第1のオリジナル画像データ55A内の画像端まで対応領域CRの位置が移動した場合、前述の一時停止処理を経た後で第2の遷移処理を行う。
 図20は、第3実施形態の表示制御部39Aによる第2の遷移処理を説明するための説明図である。ここでは、括弧付き数字(2)で示す一方の第1のオリジナル画像データ55A内での対応領域CRの位置が、括弧付き数字(1)で示す他方の第1のオリジナル画像データ55Aに対向(隣接)する側の画像端まで移動した場合を例に挙げて説明を行う。
 図20に示すように、表示制御部39Aは、前述の一時停止処理後、操作パネル33を介して対応領域CRの位置を一方の第1のオリジナル画像データ55Aから他方の第1のオリジナル画像データ55Aに向けて移動させる移動操作を受け付けた場合、第2の遷移処理を実行する。具体的に表示制御部39Aは、一方の第1のオリジナル画像データ55A内の画像端にある対応領域CRの第1の位置を、一方及び他方の第1のオリジナル画像データ55A間に撮像された括弧付き数字(1A)で示す第2のオリジナル画像データ55B内の第1の位置に対応する第3の位置に遷移させる。なお、点Q1は第1の位置の代表点であり、点Q3は第3の位置の代表点を示す。
 括弧付き数字(2)で示す一方の第1のオリジナル画像データ55Aと、括弧付き数字(1A)で示す第2のオリジナル画像データ55Bとの撮像範囲は重複しているので、両者は共通の重複領域DR(図示は省略)を有している。この重複領域DRの範囲(幅)は撮像ユニット11の画角情報と回転角度の大きさから求められる。このため、前述の図15で説明したように、対応領域CRの大きさ及び形状が重複領域DR内に収まる大きさ及び形状であるか否かに応じて場合分けをすることで、第1の位置に対応する第3の位置を決定できる。
 表示制御部39Aは、第2の遷移処理後に第2のオリジナル画像データ55Bから対応領域CRをトリミングして、トリミングしたトリミング画像データ57を表示部28に表示させる。
 なお、表示制御部39Aは、操作パネル33を介して受け付けた移動操作により、第2のオリジナル画像データ55B内での対応領域CRの位置が他方の第1のオリジナル画像データ55A側の画像端まで移動した場合、前述の一時停止処理を経た後で第3の遷移処理を行う。この場合、表示制御部39Aは、第2のオリジナル画像データ55B内にある対応領域CRの第4の位置を、この第4の位置に対応する他方の第1のオリジナル画像データ55A内の第2の位置に遷移させる。なお、点Q4は第4の位置の代表点であり、点Q2は第2の位置の代表点を示す。
 次いで、表示制御部39Aは、第3の遷移処理後に他方の第1のオリジナル画像データ55Aから対応領域CRをトリミングして、トリミングしたトリミング画像データ57を表示部28に表示させる。
 [第3実施形態の撮像装置の作用]
 次に、図21を用いて第3実施形態の撮像装置10Aの作用について説明を行う。図21は、第3実施形態の撮像装置10Aによるトリミング画像データ57の表示処理の流れを示すフローチャートである。
 図21に示すように、ステップS16までの処理は、既述の第1実施形態の図14に示したステップS16までの処理と基本的に同じである。ただし、第3実施形態では、ステップS1からステップS9(図14参照)において、既述の図18(B)に示したように第1の撮像及び第2の撮像を行うことにより、上記各実施形態の2倍の複数の撮像画像データ20を生成する。そして、第1の撮像及び第2の撮像でそれぞれ得られた撮像画像データ20に対して射影変換処理を施した後、第1の撮像(或いは第2の撮像でも可)に対応する複数の変換画像データ41にカット処理及び縮小処理を施すことでパノラマ画像データ43を生成する。
 また、ステップS6(図14参照)において、画像記憶制御部49Aは、第1の撮像で得られた複数の変換画像データ41を複数の第1のオリジナル画像データ55Aとして記憶部26に記憶させ、第2の撮像で得られた複数の変換画像データ41を複数の第2のオリジナル画像データ55Bとして記憶部26に記憶させる。これにより、第1のオリジナル画像データ55Aと第2のオリジナル画像データ55Bとを含むオリジナル画像データ55が記憶部26に記憶される。
 ステップS16の表示部28によるトリミング画像データ57の表示中において、表示制御部39Aは、操作パネル33から対応領域CRの位置の移動操作を受け付けると(ステップS17A)、この移動操作に応じて第1のオリジナル画像データ55Aの中からトリミングする対応領域CRの位置を移動させる(ステップS18A)。そして、表示制御部39Aは、第1のオリジナル画像データ55Aの中から新たな位置の対応領域CRをトリミングして、トリミング画像データ57を表示部28に順次出力する。これにより、移動操作に応じて表示部28に表示されるトリミング画像データ57が更新される(ステップS19A)。
 以下、移動操作により対応領域CRの位置が第1のオリジナル画像データ55Aの画像端に達するまで、上述のステップS17AからステップS19Aまでの処理が繰り返し実行される(ステップS20AでNO)。
 表示制御部39Aは、移動操作により前述の一方の第1のオリジナル画像データ55A内の画像端まで対応領域CRの位置が移動した場合、対応領域CRの位置を一時的に停止させる一時停止処理を行う(ステップS20AでYES、ステップS21A)。この一時停止処理後、ユーザが操作パネル33にて対応領域CRの位置を他方の第1のオリジナル画像データ55Aに向けて移動させる移動操作を行わなかった場合、前述のステップS17AからステップS21Aまでの処理が繰り返し実行される(ステップS22AでNO)。
 これに対して、一時停止処理後にユーザが操作パネル33にて対応領域CRの位置を他方の第1のオリジナル画像データ55Aに向けて移動させる移動操作を行った場合、この移動操作を受け付けた表示制御部39Aは第2の遷移処理を実行する(ステップS22AでYES)。この第2の遷移処理において、表示制御部39Aは、前述の図20に示したように、一方の第1のオリジナル画像データ55A内にある対応領域CRの第1の位置を、一方及び他方の第1のオリジナル画像データ55A間に撮像された第2のオリジナル画像データ55B内の第1の位置に対応する第3の位置へ遷移する(ステップS23A)。
 第2の遷移処理後、表示制御部39は、第2のオリジナル画像データ55Bから対応領域CRをトリミングして、新たなトリミング画像データ57を表示部28に出力する(ステップS24A)。これにより、表示部28の表示が、第2のオリジナル画像データ55Bからトリミングしたトリミング画像データ57に更新される(ステップS25A)。
 ここで、第2のオリジナル画像データ55Bの撮像範囲は、一方及び他方の第1のオリジナル画像データ55Aの撮像範囲の間に位置する(図18(B)参照)。このため、第2のオリジナル画像データ55Bからトリミングしたトリミング画像データ57は、他方の第1のオリジナル画像データ55Aからトリミングしたトリミング画像データ57よりも、一方の第1のオリジナル画像データ55Aからトリミングしたトリミング画像データ57に似た画像となる。従って、表示部28の表示を第2のオリジナル画像データ55Bからトリミングしたトリミング画像データ57に更新した場合、他方の第1のオリジナル画像データ55Aからトリミングしたトリミング画像データ57に更新する場合よりも、ユーザに与える違和感を低減することができる。
 ステップS25Aの後、表示制御部39Aは、操作パネル33から対応領域CRの位置の移動操作を受け付けると、この移動操作に応じて第2のオリジナル画像データ55Bの中で対応領域CRの位置を移動させると共に、表示部28に表示するトリミング画像データ57を更新する(ステップS26A,S27A)。
 そして、表示制御部39Aは、操作パネル33を介して受け付けた移動操作により、第2のオリジナル画像データ55B内での対応領域CRの位置が他方の第1のオリジナル画像データ55A側の画像端まで移動した場合に前述の一時停止処理を行い、さらに更なる移動操作を受け付けた場合には既述の図20に示した第3の遷移処理を行う。すなわち、表示制御部39Aは、第2のオリジナル画像データ55B内にある対応領域CRの第4の位置を、この第4の位置に対応する他方の第1のオリジナル画像データ55A内の第2の位置へ遷移する。
 次いで、表示制御部39Aは、他方の第1のオリジナル画像データ55Aから対応領域CRをトリミングして、トリミングしたトリミング画像データ57を表示部28に表示させる。これにより、表示部28の表示が、他方の第1のオリジナル画像データ55Aからトリミングしたトリミング画像データ57に更新される。
 以下、ユーザが移動操作を終了するまで、ステップS17A以降の処理が繰り返し実行される。
 [第3実施形態の効果]
 以上のように第3実施形態の撮像装置10Aでは、ユーザの移動操作により一方の第1のオリジナル画像データ55A内での対応領域CRの位置が画像端まで移動した場合に、一時停止処理を経て第2の遷移処理を行うことにより、ユーザに与える違和感を第1の遷移処理を行った場合よりも低減することができる。その結果、第2実施形態よりもパノラマ画像データ43の画像間の隙間(スリット)をユーザに意識させることなく、表示部28の表示内容を更新することができる。
 <第3実施形態の変形例>
 上記第3実施形態では、互いに隣接する第1のオリジナル画像データ55Aの一方の第1のオリジナル画像データ55A内の画像端まで対応領域CRの位置が移動した場合、前述の一時停止処理を経た後で第2の遷移処理を行うが、対応領域CRの位置が一方の第1のオリジナル画像データ55A内の画像端に達する前に第2の遷移処理を行ってもよい。これにより、第1のオリジナル画像データ55Aの画像端での解像度の劣化の影響を回避することができる。
 [第4実施形態の撮像装置]
 次に、図22を用いて第4実施形態の撮像装置10Bについて説明を行う。図22は、第4実施形態の撮像装置10Bの構成を示すブロック図である。第4実施形態の撮像装置10Bでは、撮像ユニット11Bによりその周囲の被写体を分割撮像する場合に、予め設定された方位から撮像を開始する。
 第4実施形態の撮像装置10Bは、撮像ユニット11Bに地磁気センサ61が設けられ、且つタブレット端末12Bの制御部25Bが表示制御部39Bとして機能する点を除けば、上記第1実施形態の撮像装置10(図3参照)と基本的に同じ構成である。このため、上記第1実施形態と機能や構成上同一のものについては、同一符号を付してその説明は省略する。
 図23は、第4実施形態の撮像ユニット11Bによるその周囲の被写体の分割撮像の一例を説明するための説明図である。なお、図中の括弧付き数字(1)~(8)は、撮像ユニット11Bによる撮像の順番を示す。
 図23に示すように、撮像ユニット11Bは、地磁気センサ61の検出結果に基づき方位(方角)を検出する方位検出機能を有している。このため、撮像ユニット11Bは、その周囲の被写体を分割撮像する場合に、予め設定された方位(例えば北)に撮像部18の撮像方向を合わせてから前述の分割撮像を開始する。これにより、撮像ユニット11Bは、その周囲の被写体の中で予め設定された方位にある被写体から撮像を開始し、その後、回転台16により一定の回転角度ずつ回転させられながら各回転角度位置において周囲の被写体をそれぞれ撮像して複数の撮像画像データ20を生成する。
 撮像ユニット11Bにて生成された複数の撮像画像データ20は、タブレット端末12Bにより取得される。これにより、既述の第1実施形態と同様に、タブレット端末12Bの制御部25Bの各部において複数の撮像画像データ20に対して、射影変換処理、カット処理、縮小処理、及び連結処理が施されてパノラマ画像データ43が生成される。このパノラマ画像データ43は、複数の縮小画像データ41Bを撮像ユニット11Bによる撮像順、すなわち、前述の予め設定された方位から回転台16による回転方向に沿った順番で連結して生成したものである。そして、パノラマ画像データ43はパノラマ画像生成部38から表示制御部39Bに入力される。
 図24は、第4実施形態の表示制御部39Bによるパノラマ画像データ43の表示処理を説明するための説明図である。表示制御部39Bは、パノラマ画像生成部38から入力されたパノラマ画像データ43を表示部28に出力して、パノラマ画像データ43を表示部28に全体表示させる。
 また、表示制御部39Bは、パノラマ画像データ43を表示部28に表示させる場合に、このパノラマ画像データ43を構成する複数の縮小画像データ41Bの各々が撮像ユニット11Bに対してどの方位にある被写体を撮像したものであるかを判別する。本例では、複数の縮小画像データ41Bを、前述の予め設定された方位から回転台16による回転方向に沿った順番で連結して生成しているので、既知の予め設定された方位と、回転台16による回転角度とに基づき、表示制御部39Bは縮小画像データ41Bの各々に対応する方位を判別可能である。そして、表示制御部39Bは、パノラマ画像データ43を構成する縮小画像データ41Bが撮像ユニット11Bに対してどの方位にある被写体を撮像したものであるかを示す方位情報63を表示部28の表示面に表示させる。
 [第4実施形態の効果]
 このように第4実施形態の撮像装置10Bでは、方位検出機能を有する撮像ユニット11Bにより予め定めた方位から撮像を開始させると共に、パノラマ画像データ43を表示部28に表示させる場合に方位情報63を合わせて表示させているので、ユーザは方位(北、東、西、南のような絶対方位)を把握しながらパノラマ画像データ43を閲覧することができる。
 [第4実施形態の変形例]
 上記第2実施形態及び上記第3実施形態においても、上記第4実施形態と同様に、撮像ユニット11より予め設定された方位から被写体の撮像を行い、表示部28にてパノラマ画像データ43と共に方位情報63を表示させるようにしてもよい。
 また、地磁気センサ61を有する撮像ユニット11Bにより複数の撮像画像データ20をそれぞれ撮像させる場合に、複数の撮像画像データ20のそれぞれに撮像時の方位を示す情報を付加してもよい。これにより、撮像ユニット11が任意の方位から撮像を開始した場合でも、縮小画像データ41Bの各々に対応する方位を判別して方位情報63を表示部28に表示させることができる。また、複数の縮小画像データ41Bを予め設定された方位のものから回転台16による回転方向に沿った順番で連結して、上記第4実施形態と同様のパノラマ画像データ43を生成することができる。
 なお、上記第4実施形態では、地磁気センサ61を用いた方位検出機能を有する撮像ユニット11Bを例に挙げて説明を行ったが、方位を検出する方法は地磁気センサ61に限定されるものではなく、各種の方位検出手段を用いてもよい。
 [第5実施形態の撮像装置]
 次に、図25を用いて本発明の第5実施形態の撮像装置10Cについて説明を行う。図25は、第5実施形態の撮像装置10Cの構成を示すブロック図である。上記各実施形態では、複数の縮小画像データ41Bを撮像順に間隔をあけて隣接させた状態で連結することによりパノラマ画像データ43を生成しているが、第5実施形態の撮像装置10Cでは上記各実施形態とは異なる方法でパノラマ画像データ43C(図26参照)を生成する。
 図25に示すように、撮像装置10Cは、タブレット端末12Cが上記第1実施形態とは異なる制御部25Cを備える点を除けば、第1実施形態の撮像装置10と基本的に同じ構成である。このため、上記第1実施形態と機能や構成上同一のものについては、同一符号を付してその説明は省略する。
 制御部25Cは、記憶部26から読み出したプログラム30を実行することで、上記第1実施形態で説明した画像取得部35、射影変換部36、画像記憶制御部49、表示領域設定部51、及び判定部52の他に、カット処理部37Cと、パノラマ画像生成部38Cと、表示制御部39Cと、原点座標記憶制御部65として機能する。
 図26(A)~(C)は、第5実施形態におけるパノラマ画像データ43Cの生成処理の流れを説明するための説明図である。なお、図中の括弧付き数字(1)、(2)、(3)、・・・は撮像ユニット11による撮像順を示す。
 図26(A),(B)に示すように、カット処理部37Cは、射影変換処理後の複数の変換画像データ41の中で像の歪みが大きい(凸状に湾曲している)上端部及び下端部をカットするカット処理を行い、複数のカット画像データ41Acを生成する。そして、カット処理部37Cは、カット処理後の複数のカット画像データ41Acをパノラマ画像生成部38Cへ出力する。なお、カット処理部37Cによるカット処理は省略してもよい。また、上記各実施形態においてカット処理部37Cと同様のカット処理を実行してもよい。
 図26(C)に示すように、パノラマ画像生成部38Cは、例えば、カット処理部37Cから入力された複数のカット画像データ41Acを縮小処理した縮小画像データ41Bcを、撮像範囲の一部が重複する隣接画像間の重複領域DRを重ね合せた状態で連結(所謂パノラマ合成)する。これにより、複数の縮小画像データ41Bcが隣接画像データ間の重複領域DRを重ね合せた状態で連結されているパノラマ画像データ43Cが生成される。このように第5実施形態では、一般的なパノラマ合成処理を行う。なお、第1実施形態と同様にパノラマ画像データ43Cの生成方法は上記方法に限定されるものではなく、複数のカット画像データ41Acを連結した後で縮小処理を行うなどの各種方法を用いてもよい。そして、パノラマ画像生成部38Cは、生成したパノラマ画像データ43Cを表示制御部39Cへ出力する。
 原点座標記憶制御部65は、パノラマ画像生成部38Cがパノラマ画像データ43Cを生成する場合、このパノラマ画像データ43C内での各縮小画像データ41Bcの原点座標67(o1、o2、o3、・・・)を求めて記憶部26に記憶させる。この原点座標67は、パノラマ画像データ43C内での各縮小画像データ41Bcの範囲を識別するために用いられるものであり、例えばパノラマ画像データ43C内の任意の点を原点とした場合の各縮小画像データ41Bcのコーナ部の座標である。なお、各縮小画像データ41Bcの原点座標67は、各縮小画像データ41Bcの幅(連結方向の長さ)と、重複領域DRの幅とから求めることができる。
 また、原点座標記憶制御部65は、各縮小画像データ41Bcの原点座標67を記憶部26に記憶させる場合、各縮小画像データ41Bcの画像サイズ68を記憶部26に記憶させる。
 図25に戻って、第5実施形態の記憶部26は、第1実施形態で説明したプログラム30及びオリジナル画像データ55の他に、原点座標記憶制御部65から入力された原点座標67及び画像サイズ68を記憶する。すなわち、第5実施形態の記憶部26は、本発明の画像記憶部及び原点座標記憶部として機能する。
 表示制御部39Cは、パノラマ画像生成部38から入力されたパノラマ画像データ43Cを表示部28に出力して、既述の第1実施形態の図8又は図9と同様に、表示部28にパノラマ画像データ43Cを表示させる。
 表示部28によるパノラマ画像データ43Cの表示中に、ユーザが操作パネル33を操作してパノラマ画像データ43Cの中で拡大表示する領域を選択すると、表示領域設定部51が表示領域VRの設定を行い、表示領域VRの設定範囲を示す設定範囲情報を判定部52へ出力する。また、判定部52は、表示領域設定部51から入力された設定範囲情報に基づき、表示領域設定部51により設定された表示領域VRが、オリジナル画像データ55の撮像範囲内であるか否かを判定し、その判定結果を表示制御部39Cへ出力する。
 図27(A),(B),(C)は、表示領域VRがオリジナル画像データ55の撮像範囲内であると判定部52が判定した場合の第5実施形態の表示制御部39Cによる表示領域VRの拡大表示を説明するための説明図である。
 図27(A),(B),(C)に示すように、表示制御部39Cは、最初にパノラマ画像データ43C上での表示領域VRの位置と、記憶部26から読み出した原点座標67及び画像サイズ68とに基づき、記憶部26内から対応領域CRを含むオリジナル画像データ55を検索する。なお、図中の符号vは、パノラマ画像データ43C上での表示領域VRの位置を示す座標の代表点である。パノラマ画像データ43C上での表示領域VRの位置(座標v)を、原点座標67の各点o1、o2、・・・の各点の座標及び各縮小画像データ41Bcの画像サイズ68と比較することで、表示領域VRに対応する対応領域CRを含むオリジナル画像データ55を判別できる。
 例えば、表示制御部39Cは、表示領域VRが(1)の縮小画像データ41Bc又は(2)の縮小画像データ41Bcの範囲内に完全に収まっている場合、この表示領域VRに対応する対応領域CRを含むオリジナル画像データ55として(1)又は(2)のオリジナル画像データ55を記憶部26の中から検索する。そして、表示制御部39Cは、検索した(1)又は(2)オリジナル画像データ55から対応領域CRをトリミングし、トリミングしたトリミング画像データ57を表示部28へ出力して表示させる。
 一方、表示制御部39Cは、既述の第1実施形態の図12と同様に、表示領域VRが(2)の縮小画像データ41Bc又は(3)の縮小画像データ41Bcの範囲内に完全に収まっておらず両者に跨るように設定されている場合、前述の領域内面積が大きい(3)のオリジナル画像データ55を記憶部26の中から検索する。
 次いで、表示制御部39Cは、検索した(3)のオリジナル画像データ55の中から表示領域VRに対応する対応領域CRを判別する。この場合の表示領域VRに対応する対応領域CRとは、当初の表示領域VRの設定位置から領域内面積が大きい(3)の縮小画像データ41Bc内へ平行移動した位置にある表示領域VR1に対応する対応領域CRである。なお、この平行移動の移動量は、領域内面積が大きい(3)の縮小画像データ41Bc上の範囲外にある表示領域VRの幅(図中、斜線で表示)の大きさである。そして、表示制御部39Cは、(3)のオリジナル画像データ55から対応領域CRをトリミングし、トリミングしたトリミング画像データ57を表示部28へ出力して表示させる。
 図28は、判定部52が否と判定した場合の第5実施形態の表示制御部39Cによる表示領域VR(図中、斜線で表示)の拡大表示を説明するための説明図である。図28に示すように、表示制御部39Cは、第1実施形態と同様に、パノラマ画像データ43Cの中から表示領域VRに対応する領域をトリミングし、トリミングしたトリミング画像データ56を表示部28へ出力して拡大表示させる。
 [第5実施形態の撮像装置の作用]
 次に、図29を用いて第5実施形態の撮像装置10Cの作用について説明を行う。図29は、第5実施形態の撮像装置10Cによるパノラマ画像データ43Cの表示処理や表示領域VRの拡大表示処理の流れを示すフローチャートである。なお、ステップS6までの処理は、既述の第1実施形態の図14に示したステップS1からステップS6までの処理と基本的に同じであるので、ここでは具体的な説明を省略する。
 <パノラマ画像データの表示処理>
 ステップS6の処理後、複数の変換画像データ41の入力を受けたカット処理部37は、既述の図26に示したように、複数の変換画像データ41に対して上端部及び下端部をカットするカット処理を行い、複数のカット画像データ41Acを生成してパノラマ画像生成部38Cへ出力する(ステップS7C)。
 複数のカット画像データ41Acの入力を受けたパノラマ画像生成部38Cは、複数のカット画像データ41Acを縮小処理して複数の縮小画像データ41Bcを生成する(ステップS8C)。次いで、パノラマ画像生成部38Cは、複数の縮小画像データ41Bcを、撮像範囲の一部が重複する隣接画像間の重複領域DRを重ね合せた状態で連結(パノラマ合成)してパノラマ画像データ43Cを生成し、このパノラマ画像データ43Cを表示制御部39Cへ出力する(ステップS9C)。なお、既述の通り、パノラマ画像生成部38Cによるパノラマ画像データ43Cの生成方法は上記の方法に限定はされない。
 また、パノラマ画像生成部38Cがパノラマ画像データ43Cを生成する場合、原点座標記憶制御部65は、パノラマ画像データ43C内での各縮小画像データ41Bcの原点座標67を求めて記憶部26に記憶させると共に、各縮小画像データ41Bcの画像サイズ68を記憶部26に記憶させる(ステップS9C-1)。
 パノラマ画像データ43Cの入力を受けた表示制御部39は、このパノラマ画像データ43Cを表示部28へ出力して、表示部28にパノラマ画像データ43Cを全体表示させる(ステップS10C)。
 <表示領域の拡大表示処理>
 第1実施形態と同様にユーザが操作パネル33を操作して、表示部28に表示されているパノラマ画像データ43Cの中で拡大表示する領域を選択すると、表示領域設定部51による表示領域VRの設定と(ステップS11C)、判定部52による判定とが実行され、判定部52の判定結果が表示制御部39Cに入力される(ステップS12C)。
 そして、表示制御部39Cは、判定部52から否との判定結果の入力を受けた場合、既述の図28に示したように、パノラマ画像データ43Cの中から表示領域VRに対応する領域をトリミングして、トリミングしたトリミング画像データ56を表示部28に出力する(ステップS12CでNO、ステップS13C)。そして、表示制御部39Cは、トリミング画像データ56を表示部28に拡大表示させる(ステップS14C)。
 一方、表示制御部39は、判定部52から表示領域VRがオリジナル画像データ55の撮像範囲内(撮像部18の画角の範囲内)であるとの判定結果の入力を受けた場合、記憶部26に記憶されている原点座標67及び画像サイズ68を読み出す。次いで、表示制御部39は、既述の図27に示したように、パノラマ画像データ43C上での表示領域VRの位置と、原点座標67及び画像サイズ68とに基づき、記憶部26内のオリジナル画像データ55の中から、対応領域CRを含むオリジナル画像データ55を検索する。そして、表示制御部39Cは、検索したオリジナル画像データ55から対応領域CRをトリミングし(ステップS15C)、トリミングしたトリミング画像データ57を表示部28へ出力して表示させる(ステップS16C)。
 ユーザが操作パネル33等を操作して表示領域VRの再設定を行った場合、前述のステップS11C以降の処理が繰り返し実行される(ステップS30でYES)。
 [第5実施形態の効果]
 以上のように第5実施形態の撮像装置10Cにおいても、上記第1実施形態と同様に、表示部28の表示面のサイズに対応した解像度のパノラマ画像データ43Cの表示と、トリミング画像データ56又はトリミング画像データ57による表示領域VRの拡大表示とをシームレスに切り替えることができるので、被写体の俯瞰と詳細確認とが可能になる。
 <第5実施形態の変形例>
 図30(A),(B)は、上記第5実施形態の撮像装置10Cにおけるオリジナル画像データ55内での対応領域CRの位置の移動及び第1の遷移処理を説明するための説明図である。また、図30(C)は、上記第5実施形態の撮像装置10Cにおける第2の遷移処理を説明するための説明図である。
 図30(A),(B)に示すように、上記第5実施形態の表示制御部39Cは、上記第2実施形態と同様に、表示部28によるトリミング画像データ57の表示中に操作パネル33から対応領域CRの位置の移動操作を受け付けた場合、この移動操作に応じてオリジナル画像データ55内での対応領域CRの位置を移動させる。そして、表示制御部39Cは、移動操作により互いに隣接するオリジナル画像データ55の一方のオリジナル画像データ55内の画像端まで対応領域CRの位置が移動した場合、前述の一時停止処理を行う。
 さらに、表示制御部39Cは、一時停止処理後に操作パネル33にて対応領域CRの位置を他方のオリジナル画像データ55に向けて移動させる移動操作が行われた場合、この対応領域CRが重複領域DR内に収まる形状であるか否かに応じて、既述の第2実施形態の図15(A),(B)又は図15(C),(D)で説明した第1の遷移処理を実行する。
 また、上記第5実施形態の撮像装置10Cにおいても、既述の第3実施形態の図18(B)で説明したように第1の撮像と第2の撮像とを行うことができる。この場合、図30(C)に示すように、表示制御部39Cは、一時停止処理後に操作パネル33にて対応領域CRの位置を一方の第1のオリジナル画像データ55Aから他方の第1のオリジナル画像データ55Aに向けて移動させる移動操作が行われることに応じて、既述の第3実施形態の図20で説明した第2の遷移処理を実行する。
 なお、上記第5実施形態の撮像装置10Cにおいて、既述の第1実施形態の図13で説明したように、対応領域CRのトリミング画像データ57を表示している表示部28の表示面の一部にサブ画面59を表示させてもよい。また、上記第5実施形態の撮像装置10Cにおいて、既述の第4実施形態(図22から図24参照)と同様に撮像ユニット11Bを用いて予め設定された方位から撮像を開始してもよく、さらにパノラマ画像データ43Cを表示部28に表示させる場合に方位情報63を合わせて表示させてもよい。
 [その他]
 上記各実施形態では、撮像ユニット11,11Bから取得した複数の撮像画像データ20に対して行う射影変換処理として円筒変換処理を例に挙げたが、円筒変換処理以外の射影変換処理を行ってもよい。また、射影変換処理を省略してもよい。この場合、画像記憶制御部49,49Aは、複数の撮像画像データ20を複数のオリジナル画像データ55として記憶部26に記憶させる。
 上記各実施形態では、タブレット端末12,12A~12Cが本発明の画像処理装置として機能しているが、パノラマ画像データ43,43Cの生成やトリミング画像データ56,57の生成等を撮像ユニット11,11B側で実行してもよい。
 上記各実施形態では、撮像ユニット11,11Bとしてパンチルトカメラを例に挙げたが、撮像ユニットの種類は特に限定されるものではなく、デジタルカメラや携帯端末などを用いてもよい。なお、デジタルカメラや携帯端末などを用いる場合には、撮像範囲を水平方向に移動させながら連続して撮像を実行する場合に、連続する撮像の前後で撮像範囲の一部を重複させながら撮像を実行できるように、撮像支援機能(パノラマアシスト機能ともいう)を有するものを用いることが好ましい。さらにデジタルカメラや携帯端末などを本発明の撮像ユニットとして用いる場合には、この撮像ユニットを本発明の画像処理装置としても機能させてもよい。これにより、本発明の撮像装置を一つの装置で実現することができる。
 上記各実施形態では、撮像ユニット11,11Bによりその周囲360°を分割撮像しているが、分割撮像する範囲は360°未満であってもよい。
 上記各実施形態では、撮像ユニット11,11Bを回転させながらその周囲を分割撮像しているが、例えば撮像ユニット11,11Bを回転させる代わりに水平方向を含む任意の一方向に移動させながら連続して撮像を実行させてもよい。また、1つの撮像ユニット11等で撮像を行う代わりに、複数の撮像ユニット11等で撮像を行ってもよい。
 上記各実施形態では、本発明の画像処理装置としてタブレット端末12,12A~12Cを例に挙げて説明を行ったが、例えばパーソナルコンピュータ、サーバ、及び携帯端末[スマートフォン、タブレット端末、PDA(Personal Digital Assistants)、携帯型ゲーム機等]のような画像処理機能を有する各種の画像処理装置に本発明を適用することができる。この場合、上記各実施形態で説明した記憶部26や表示部28は画像処理装置と必ずしも一体に設けられている必要はなく別体に設けられていてもよい。また、前述の通り、携帯端末のような撮像機能を有するものを本発明の画像処理装置として機能させる場合には、本発明の撮像装置を一つの装置で実現することもできる。
 上述の各実施形態で説明した撮像装置としてコンピュータを機能させるためのプログラム(前述のプログラム30等)をCD-ROM(Compact Disc Read Only Memory)や磁気ディスクやその他のコンピュータ可読媒体(有体物たる非一時的な情報記憶媒体)に記録し、情報記憶媒体を通じてプログラムを提供することが可能である。このような情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの通信ネットワークを利用してプログラム信号をダウンロードサービスとして提供することも可能である。
 <スマートフォンの構成>
 以下、本発明(画像処理装置及び撮像装置)を適用可能なスマートフォンの一例について説明する。
 図31は、本発明を適用可能なスマートフォン500の外観斜視図である。図31に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541と、LED(Light Emitting Diode)発光部542とを備えている。なお、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用することや、折り畳み構造やスライド機構を有する構成を採用することもできる。
 図32は、図31に示したスマートフォン500の構成を示すブロック図である。図32に示すように、スマートフォン500の主たる構成要素として、無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。また、スマートフォン500の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部510は、主制御部501の指示に従って、移動通信網に収容された基地局装置に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部520は、主制御部501の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達すると共に、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。生成された3D画像を鑑賞する場合には、表示パネル521は、3D表示パネルであることが好ましい。
 表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。
 操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。
 図31に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。
 なお、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。さらにまた、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力したりするものである。また、図31に示すように、例えば、スピーカ531及びマイクロホン532を表示入力部520が設けられた面と同じ面に搭載することができる。
 操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、操作部540は、スマートフォン500の筐体502の表示部の下部、下側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部550は、主制御部501の制御プログラムや制御データ、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。なお、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。なお、記憶部550は、上記各実施形態の記憶部26に相当する。
 外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバスなど)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
 スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部570は、主制御部501の指示に従って、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できるときには、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示に従って、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
 電源部590は、主制御部501の指示に従って、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データに従って動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアに従って主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画や動画のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。
 さらに、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。
 表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示し、あるいは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル521に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 さらに、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分か、それ以外の表示パネル521に重ならない外縁部分かを判定し、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)型あるいはCCD(charge-coupled device)型の撮像素子を用いて電子撮像する撮像部である。
 LED発光部542は、白色LED及び近赤外LEDを有し、可視光画像撮像モード時に被写体の光量が不足する場合には、白色LEDを点灯し、可視光画像撮像時の補助光として白色LEDから白色光を発光し、近赤外光画像撮像モード時に近赤外LEDを点灯し、近赤外光画像撮像時の補助光として近赤外LEDから近赤外光を発光する。また、近赤外LEDは、赤外線通信機能を有するスマートフォン500の場合、赤外線通信の光源として使用することも可能である。
 また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを、例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力したりすることができる。図31に示すにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは、複数のカメラ部541が搭載されてもよい。なお、複数のカメラ部541が搭載されている場合には、撮像に供するカメラ部541を切り替えて単独にて撮像したり、あるいは、複数のカメラ部541を同時に使用して撮像したりすることもできる。
 また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。さらには、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。
 主制御部501は、上記各実施形態の制御部25,25A~25Cと同等の機能を有するものであり、本発明の画像処理装置に相当するものである。また、カメラ部541を本発明の撮像ユニットとして機能させることも可能である。この場合、前述の撮像支援機能(パノラマアシスト機能)をスマートフォン500に搭載することが好ましい。
 <本明細書の記載から導かれる発明>
 また、本明細書の記載から以下の発明を導き出すことができる。図33(A),(B)は、本明細書の記載から導き出される発明を説明するための説明図である。例えば図33(A)に示すように、上記第1実施形態(他の実施形態でも可)においてタブレット端末12の表示部28に表示されているパノラマ画像データ43の中の一部を選択するタッチ操作等の選択操作がなされた場合に、このパノラマ画像データ43の中で選択操作がなされた座標を含む縮小画像データ41Bを検出する。そして、図33(B)に示すように、表示制御部39が、縮小画像データ41Bの検出結果に対応するオリジナル画像を記憶部26から読み出して表示部28に表示させる。
 すなわち、「撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像であって、且つ連続する撮像の前後で撮像範囲の一部を重複させながら撮像を実行して得られた複数の撮像画像を取得する画像取得部と、画像取得部が取得した複数の撮像画像から、複数の撮像画像を縮小処理した複数の縮小画像が連結されているパノラマ画像を生成するパノラマ画像生成部と、パノラマ画像生成部による縮小処理前の複数の撮像画像をオリジナル画像として画像記憶部に記憶させる画像記憶制御部と、パノラマ画像生成部が生成したパノラマ画像を表示部に表示させる表示制御部と、表示部に表示されているパノラマ画像の中の一部を選択する選択操作がなされた場合、パノラマ画像の中で選択操作がなされた座標を含む縮小画像を検出する画像検出部と、を備え、表示制御部は、画像検出部の検出結果に基づき、画像記憶部から画像検出部の検出結果に対応するオリジナル画像を読み出して表示部に表示させる画像処理装置」の発明が本明細書の記載から導き出される。
 10,10A~10C…撮像装置,11,11B…撮像ユニット,12,12A~12C…タブレット端末,16…回転台,18…撮像部,20…撮像画像データ,25,25A~25C…制御部,26…記憶部,28…表示部,30…プログラム,33…操作パネル,35,35A…画像取得部,36,36A…射影変換部,37,37A,37C…カット処理部,38,38A,38C…パノラマ画像生成部,39,39A~39C…表示制御部,41A,41Ac…カット画像データ,41B,41Bc…縮小画像データ,41…変換画像データ,43,43C…パノラマ画像データ,49,49A…画像記憶制御部,51…表示領域設定部,52…判定部,55…オリジナル画像データ,55A…第1のオリジナル画像データ,55B…第2のオリジナル画像データ,56…トリミング画像データ,57…トリミング画像データ,59…サブ画面,61…地磁気センサ,65…原点座標記憶制御部,67…原点座標

Claims (16)

  1.  撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像であって、且つ連続する撮像の前後で前記撮像範囲の一部を重複させながら撮像を実行して得られた複数の撮像画像を取得する画像取得部と、
     前記画像取得部が取得した前記複数の撮像画像から、当該複数の撮像画像を縮小処理した複数の縮小画像が連結されているパノラマ画像を生成するパノラマ画像生成部と、
     前記パノラマ画像生成部による縮小処理前の前記複数の撮像画像をオリジナル画像として画像記憶部に記憶させる画像記憶制御部と、
     前記パノラマ画像生成部が生成した前記パノラマ画像を表示部に表示させる表示制御部と、
     前記表示部に表示されている前記パノラマ画像の中で拡大表示する表示領域を設定する表示領域設定部と、
     前記表示領域設定部により設定された前記表示領域が、前記オリジナル画像の撮像範囲内であるか否かを判定する判定部と、
     を備え、
     前記表示制御部は、前記判定部が否と判定した場合、前記パノラマ画像から前記表示領域をトリミングして前記表示部に拡大表示させ、前記判定部が前記オリジナル画像の撮像範囲内であると判定した場合、前記画像記憶部に記憶されている前記オリジナル画像の中から当該表示領域に対応する対応領域をトリミングして前記表示部に表示させる画像処理装置。
  2.  前記表示制御部は、前記表示部に前記オリジナル画像内の前記対応領域が表示されている場合において、さらに前記オリジナル画像内での前記対応領域の位置を移動させる移動操作を受け付けた場合、前記移動操作に応じて前記オリジナル画像の中からトリミングする前記対応領域の位置を移動させる請求項1に記載の画像処理装置。
  3.  前記表示制御部は、
     前記移動操作によって前記対応領域の位置が、互いに隣接する前記オリジナル画像の一方の画像において他方の画像に隣接する側の画像端まで移動した場合、当該対応領域の位置の移動を一時的に停止させる一時停止処理と、
     前記一時停止処理された前記対応領域の位置を前記一方の画像から前記他方の画像に向けて移動させる移動操作をさらに受け付けた場合、前記一方の画像の画像端にある前記対応領域の第1の位置を、前記第1の位置に対応する前記他方の画像の第2の位置へ遷移させる第1の遷移処理と、を実行する請求項2に記載の画像処理装置。
  4.  前記画像取得部は、前記撮像ユニットが水平方向に一定の回転角度ずつ回転する毎に撮像を行って生成した前記複数の撮像画像を取得する請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記撮像ユニットは、水平方向に一定の回転角度ずつ回転する毎に第1の撮像を行って前記複数の撮像画像を生成し、且つ前記第1の撮像を行う毎に当該第1の撮像の位置から前記回転角度の1/2だけさらに回転した位置で第2の撮像を行って前記複数の撮像画像を生成し、
     前記画像取得部は、前記撮像ユニットの前記第1の撮像により生成された前記複数の撮像画像と、前記第2の撮像により生成された前記複数の撮像画像とを取得し、
     前記パノラマ画像生成部は、前記第1の撮像及び前記第2の撮像のいずれか一方の撮像によって得られた前記複数の撮像画像から前記パノラマ画像を生成し、
     前記画像記憶制御部は、前記一方の撮像で得られた前記複数の撮像画像を第1のオリジナル画像とし、且つ前記一方の撮像とは異なる他方の撮像で得られた前記複数の撮像画像を第2のオリジナル画像として、前記第1のオリジナル画像と前記第2のオリジナル画像とを含む前記オリジナル画像を前記画像記憶部に記憶させ、
     前記表示制御部は、
     前記移動操作によって前記対応領域の位置が、互いに隣接する前記第1のオリジナル画像の一方の画像の中において他方の画像に隣接する側の画像端まで移動した場合、当該対応領域の位置の移動を一時的に停止させる一時停止処理と、
     前記一時停止処理された前記対応領域の位置を前記一方の画像から前記他方の画像に向けて移動させる移動操作をさらに受け付けた場合、前記一方の画像内の画像端にある前記対応領域の第1の位置を、前記一方の画像及び前記他方の画像の間で撮像された前記第2のオリジナル画像内の前記第1の位置に対応する第3の位置へ遷移させる第2の遷移処理と、を実行する請求項2に記載の画像処理装置。
  6.  前記パノラマ画像生成部は、前記複数の縮小画像が前記撮像ユニットによる撮像順に間隔をあけて隣接させた状態で連結されている前記パノラマ画像であって、且つ前記撮像範囲の一部が重複する当該複数の縮小画像の隣接画像間の重複領域が、前記隣接画像間の重複領域の互いに対向する画像端から予め設定した幅でカット処理されている前記パノラマ画像を生成する請求項1から5のいずれか1項に記載の画像処理装置。
  7.  前記予め設定された幅は、前記カット処理された前記複数の縮小画像の隣接画像同士の一部が重複する大きさに設定されている請求項6に記載の画像処理装置。
  8.  前記パノラマ画像生成部は、前記複数の縮小画像が、前記撮像範囲の一部が重複する隣接画像間の重複領域を重ね合せた状態で連結されている前記パノラマ画像を生成し、
     前記パノラマ画像生成部が前記パノラマ画像を生成する場合に、前記パノラマ画像内での前記複数の縮小画像の各々の原点座標を原点座標記憶部に記憶させる原点座標記憶制御部を有し、
     前記表示制御部は、前記判定部が前記オリジナル画像の撮像範囲内であると判定した場合、前記表示領域設定部により設定された前記表示領域と、前記原点座標記憶部に記憶されている前記原点座標とに基づき、前記画像記憶部に記憶されている前記オリジナル画像の中から前記対応領域を含む当該オリジナル画像を検索し、検索した当該オリジナル画像の当該対応領域をトリミングして前記表示部に表示させる請求項1から5のいずれか1項に記載の画像処理装置。
  9.  前記画像取得部が取得した前記複数の撮像画像に対し、前記撮像ユニットの画角に基づき同一投影面に射影変換する射影変換処理を施す射影変換部を備え、
     前記パノラマ画像生成部は、前記射影変換部により射影変換処理された前記複数の撮像画像から生成した前記複数の縮小画像を連結してパノラマ画像を生成し、
     前記画像記憶制御部は、前記オリジナル画像として、前記射影変換部により射影変換処理された前記複数の撮像画像を前記画像記憶部に記憶させる請求項1から8のいずれか1項に記載の画像処理装置。
  10.  前記表示制御部は、前記オリジナル画像から前記対応領域をトリミングして前記表示部に表示させる場合に、当該表示部の表示面の一部に前記パノラマ画像の全体を示す全体画像を表示させる請求項1から9のいずれか1項に記載の画像処理装置。
  11.  前記表示制御部は、前記表示領域の範囲を示す範囲画像を前記全体画像に重畳表示させる請求項10に記載の画像処理装置。
  12.  撮像ユニットと、前記撮像ユニットの撮像範囲を水平方向に回転させる回転機構と、請求項1から請求項11のいずれか1項に記載の画像処理装置と、を備える撮像装置。
  13.  前記撮像ユニットは、方位検出機能を有しており、予め設定された方位から撮像を開始する請求項12に記載の撮像装置。
  14.  撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像であって、且つ連続する撮像の前後で前記撮像範囲の一部を重複させながら撮像を実行して得られた複数の撮像画像を取得する画像取得ステップと、
     前記画像取得ステップで取得した前記複数の撮像画像から、当該複数の撮像画像を縮小処理した複数の縮小画像が連結されているパノラマ画像を生成するパノラマ画像生成ステップと、
     前記パノラマ画像生成ステップで縮小処理される前の前記複数の撮像画像をオリジナル画像として画像記憶部に記憶させる画像記憶制御ステップと、
     前記パノラマ画像生成ステップで生成した前記パノラマ画像を表示部に表示させる表示制御ステップと、
     前記表示部に表示されている前記パノラマ画像の中で拡大表示する表示領域を設定する表示領域設定ステップと、
     前記表示領域設定ステップで設定された前記表示領域が、前記オリジナル画像の撮像範囲内であるか否かを判定する判定ステップと、
     を有し、
     前記表示制御ステップは、前記判定ステップで否と判定された場合、前記パノラマ画像から前記表示領域をトリミングして前記表示部に拡大表示させ、前記判定ステップで前記オリジナル画像の撮像範囲内であると判定された場合、前記画像記憶部に記憶されている前記オリジナル画像の中から当該表示領域に対応する対応領域をトリミングして前記表示部に表示させる画像処理方法。
  15.  画像処理装置のコンピュータを、
     撮像ユニットの撮像範囲を水平方向に移動させながら連続して撮像を実行して得られた複数の撮像画像であって、且つ連続する撮像の前後で前記撮像範囲の一部を重複させながら撮像を実行して得られた複数の撮像画像を取得する画像取得部と、
     前記画像取得部が取得した前記複数の撮像画像から、当該複数の撮像画像を縮小処理した複数の縮小画像が連結されているパノラマ画像を生成するパノラマ画像生成部と、
     前記パノラマ画像生成部による縮小処理前の前記複数の撮像画像をオリジナル画像として画像記憶部に記憶させる画像記憶制御部と、
     前記パノラマ画像生成部が生成した前記パノラマ画像を表示部に表示させる表示制御部と、
     前記表示部に表示されている前記パノラマ画像の中で拡大表示する表示領域を設定する表示領域設定部と、
     前記表示領域設定部により設定された前記表示領域が、前記オリジナル画像の撮像範囲内であるか否かを判定する判定部として機能させるためのプログラムであって、
     前記表示制御部は、前記判定部が否と判定した場合、前記パノラマ画像から前記表示領域をトリミングして前記表示部に拡大表示させ、前記判定部が前記オリジナル画像の撮像範囲内であると判定した場合、前記画像記憶部に記憶されている前記オリジナル画像の中から当該表示領域に対応する対応領域をトリミングして前記表示部に表示させるプログラム。
  16.  請求項15に記載のプログラムを記録したコンピュータ読み取り可能な非一時的有形媒体。
PCT/JP2016/076806 2015-09-30 2016-09-12 画像処理装置及び撮像装置及び画像処理方法及びプログラム WO2017056942A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680054778.8A CN108141511B (zh) 2015-09-30 2016-09-12 图像处理装置、摄像装置、图像处理方法以及有形介质
JP2017543084A JP6335395B2 (ja) 2015-09-30 2016-09-12 画像処理装置及び撮像装置及び画像処理方法及びプログラム
US15/936,798 US10530998B2 (en) 2015-09-30 2018-03-27 Image processing device, imaging device, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015193478 2015-09-30
JP2015-193478 2015-09-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/936,798 Continuation US10530998B2 (en) 2015-09-30 2018-03-27 Image processing device, imaging device, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2017056942A1 true WO2017056942A1 (ja) 2017-04-06

Family

ID=58427560

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/076806 WO2017056942A1 (ja) 2015-09-30 2016-09-12 画像処理装置及び撮像装置及び画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US10530998B2 (ja)
JP (1) JP6335395B2 (ja)
CN (1) CN108141511B (ja)
WO (1) WO2017056942A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073620A (ja) * 2015-10-06 2017-04-13 株式会社トプコン 画像処理装置、画像処理方法および画像処理用プログラム
JP2019033344A (ja) * 2017-08-07 2019-02-28 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019057891A (ja) * 2017-09-22 2019-04-11 キヤノン株式会社 情報処理装置、撮像装置、情報処理方法及びプログラム
JP2020202503A (ja) * 2019-06-11 2020-12-17 キヤノン株式会社 撮像装置、コンピュータプログラムおよび記憶媒体

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI547177B (zh) * 2015-08-11 2016-08-21 晶睿通訊股份有限公司 視角切換方法及其攝影機
JP7391502B2 (ja) * 2018-02-20 2023-12-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7163057B2 (ja) * 2018-04-26 2022-10-31 キヤノン株式会社 撮像装置、撮像方法、プログラムおよび記録媒体
JP7051616B2 (ja) * 2018-06-29 2022-04-11 株式会社日立システムズ 画像表示システムおよび方法
US10937217B2 (en) * 2018-12-28 2021-03-02 Canon Kabushiki Kaisha Electronic device and control method thereof for generating edited VR content
US11683464B2 (en) * 2018-12-28 2023-06-20 Canon Kabushiki Kaisha Electronic device, control method, and non-transitorycomputer readable medium
CN111818254A (zh) * 2019-04-11 2020-10-23 苏州臻迪智能科技有限公司 图像处理方法、装置、无人装置和计算机可读存储介质
WO2021079455A1 (ja) * 2019-10-24 2021-04-29 三菱電機株式会社 画像生成システム及び画像処理装置、並びにプログラム及び記録媒体
US20210203842A1 (en) * 2019-12-27 2021-07-01 Industrial Technology Research Institute Panoramic video processing method, panoramic video processing device and panoramic video system
CN113055587A (zh) * 2019-12-27 2021-06-29 财团法人工业技术研究院 全景视频处理方法、全景视频处理装置与全景视频系统
CN111176526B (zh) * 2019-12-30 2021-06-08 维沃移动通信有限公司 图片显示方法和电子设备
TWI735237B (zh) * 2020-05-22 2021-08-01 茂傑國際股份有限公司 360度全景影像選擇顯示之攝影機及方法
CN114511443A (zh) * 2020-10-29 2022-05-17 北京中祥英科技有限公司 图像处理、图像识别网络训练和图像识别的方法及装置
CN112383709A (zh) * 2020-11-06 2021-02-19 维沃移动通信(杭州)有限公司 图片显示方法、装置及设备
CN112532875B (zh) * 2020-11-24 2022-08-19 展讯通信(上海)有限公司 终端设备及其图像处理方法、装置、存储介质
CN112732958B (zh) * 2020-12-21 2024-05-17 维沃移动通信有限公司 图像显示方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009268037A (ja) * 2008-04-03 2009-11-12 Sony Corp 撮像装置及び撮像方法
JP2011090258A (ja) * 2009-10-26 2011-05-06 Fujifilm Corp 広角画像表示制御方法及びその装置並びに広角画像撮像装置
JP2012018237A (ja) * 2010-07-07 2012-01-26 Sony Corp 表示制御装置、表示制御方法、プログラム
JP2012133085A (ja) * 2010-12-21 2012-07-12 Sony Corp 表示制御装置、表示制御方法、及び、プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000125190A (ja) 1998-10-16 2000-04-28 Olympus Optical Co Ltd カメラシステム及び記録媒体
JP2002094849A (ja) 2000-09-12 2002-03-29 Sanyo Electric Co Ltd 広視野画像撮像装置
KR100724134B1 (ko) * 2006-01-09 2007-06-04 삼성전자주식회사 이미지 매칭 속도와 블렌딩 방법을 개선한 파노라마 영상제공 방법 및 장치
US8350892B2 (en) 2008-05-20 2013-01-08 Sony Corporation Image pickup apparatus, image pickup method, playback control apparatus, playback control method, and program
JP5418127B2 (ja) * 2009-10-09 2014-02-19 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4985808B2 (ja) * 2010-03-19 2012-07-25 カシオ計算機株式会社 撮像装置、及びプログラム
JP5341010B2 (ja) * 2010-04-15 2013-11-13 オリンパス株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
KR20120046802A (ko) * 2010-10-27 2012-05-11 삼성전자주식회사 하나의 카메라를 이용하여 3차원 파노라마 영상을 생성하는 장치 및 방법
CN103703755B (zh) 2011-07-22 2016-02-10 富士胶片株式会社 全景图像产生方法和图像捕获设备
KR102058857B1 (ko) * 2013-04-08 2019-12-26 삼성전자주식회사 촬영 장치 및 촬영 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009268037A (ja) * 2008-04-03 2009-11-12 Sony Corp 撮像装置及び撮像方法
JP2011090258A (ja) * 2009-10-26 2011-05-06 Fujifilm Corp 広角画像表示制御方法及びその装置並びに広角画像撮像装置
JP2012018237A (ja) * 2010-07-07 2012-01-26 Sony Corp 表示制御装置、表示制御方法、プログラム
JP2012133085A (ja) * 2010-12-21 2012-07-12 Sony Corp 表示制御装置、表示制御方法、及び、プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073620A (ja) * 2015-10-06 2017-04-13 株式会社トプコン 画像処理装置、画像処理方法および画像処理用プログラム
JP2019033344A (ja) * 2017-08-07 2019-02-28 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7030442B2 (ja) 2017-08-07 2022-03-07 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019057891A (ja) * 2017-09-22 2019-04-11 キヤノン株式会社 情報処理装置、撮像装置、情報処理方法及びプログラム
JP7086552B2 (ja) 2017-09-22 2022-06-20 キヤノン株式会社 情報処理装置、撮像装置、情報処理方法及びプログラム
JP2020202503A (ja) * 2019-06-11 2020-12-17 キヤノン株式会社 撮像装置、コンピュータプログラムおよび記憶媒体

Also Published As

Publication number Publication date
US20180220071A1 (en) 2018-08-02
JPWO2017056942A1 (ja) 2018-08-16
CN108141511B (zh) 2019-12-03
JP6335395B2 (ja) 2018-05-30
US10530998B2 (en) 2020-01-07
CN108141511A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
JP6335395B2 (ja) 画像処理装置及び撮像装置及び画像処理方法及びプログラム
JP6205067B2 (ja) パン・チルト操作装置、カメラシステム、パン・チルト操作用プログラム及びパン・チルト操作方法
US10638034B2 (en) Imaging control apparatus, imaging control method, camera system, and program
JP6328255B2 (ja) マルチ撮像装置、マルチ撮像方法、プログラム、及び記録媒体
JP6205072B2 (ja) 撮像制御装置、撮像制御方法、カメラ、カメラシステム及びプログラム
CN108702445B (zh) 一种图像显示方法、电子设备及计算机可读存储介质
JP5719480B2 (ja) 画像変形装置およびその動作制御方法
KR20140106333A (ko) 이미지 센서 위치를 이용한 이미지 영역 설정 장치 및 방법
JP5477059B2 (ja) 電子機器、画像出力方法及びプログラム
US20190387176A1 (en) Display control apparatus, display control method, and computer program
JP2017168882A (ja) 画像処理装置、画像処理方法及びプログラム
JPWO2016125352A1 (ja) カメラ装置、撮像システム、制御方法及びプログラム
JP2022008799A (ja) 画像管理システム、及び画像管理方法
KR102501713B1 (ko) 영상 표시 방법 및 그 전자장치
JP6582153B2 (ja) 撮像装置、撮像方法、及び撮像プログラム
JP6205068B2 (ja) 撮像装置の操作装置、操作方法、及びプログラム
JP6374535B2 (ja) 操作装置、追尾システム、操作方法、及びプログラム
WO2013136602A1 (ja) プロジェクタ付き撮影装置及びその撮影制御方法
JP6840903B2 (ja) 撮像装置、撮像方法、及びプログラム
JP2015192362A (ja) 画像再生装置,画像再生方法およびその制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16851116

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017543084

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16851116

Country of ref document: EP

Kind code of ref document: A1