WO2007132646A1 - 動画の表示方法、動画表示システムおよび広角動画撮像装置 - Google Patents

動画の表示方法、動画表示システムおよび広角動画撮像装置 Download PDF

Info

Publication number
WO2007132646A1
WO2007132646A1 PCT/JP2007/058806 JP2007058806W WO2007132646A1 WO 2007132646 A1 WO2007132646 A1 WO 2007132646A1 JP 2007058806 W JP2007058806 W JP 2007058806W WO 2007132646 A1 WO2007132646 A1 WO 2007132646A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
still image
angle
imaging
image
Prior art date
Application number
PCT/JP2007/058806
Other languages
English (en)
French (fr)
Inventor
Tatsuro Ogawa
Original Assignee
Opt Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Opt Corporation filed Critical Opt Corporation
Priority to US12/299,921 priority Critical patent/US20090303351A1/en
Priority to EP07742241A priority patent/EP2031864A4/en
Publication of WO2007132646A1 publication Critical patent/WO2007132646A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums

Definitions

  • Video display method video display system, and wide-angle video imaging device
  • the present invention relates to a moving image display method, a moving image display system, and a wide-angle moving image capturing apparatus.
  • Patent Document 1 discloses a moving image recording / reproducing apparatus that records and reproduces a moving image captured by an imaging unit as moving image data.
  • the moving picture recording / reproducing apparatus detects the degree of shaking of the main body of the apparatus when the moving image is shot by the shaking detection circuit during recording, and records the detected degree of shaking together with the moving picture data in the auxiliary recording device.
  • the moving image recording / playback apparatus reads the recorded shaking degree and moving picture data, and compares the shaking degree with a predetermined value.
  • the moving image recording / reproducing apparatus stops moving image display based on the read moving image data when the degree of shaking exceeds a predetermined value as a result of the comparison.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2005-348178 (Abstract, Claims, Detailed Explanation of Invention, etc.)
  • the photographer comes to use a tripod stand.
  • the video camera is fixed on the tripod, and the video camera is rotated on the tripod.
  • a tripod stand is used, a photographer who is unable to move as the number of imaging bases increases needs to secure a fixed imaging location. Also, the photographer must use a tripod when shooting while moving. The camera cannot be fixed on the table.
  • the present invention relates to a moving image display method, a moving image display system, and a wide-angle moving image pickup device capable of displaying a moving image of a desired subject or direction without particularly taking an image of the desired subject or direction.
  • the purpose is to obtain.
  • a moving image display method includes a step of cutting out a part of a still image captured using a wide-angle lens and generating display data of an initial display image, and the image is captured using the wide-angle lens.
  • a generating step Prior to the cutting of the second and subsequent still images, the step of specifying the amount of change in the imaging AND until the imaging timing for capturing the still image to be extracted, such as the imaging timing of the previously extracted still image, Shift the image cutout range from the second and subsequent still images so as to offset the specified change in imaging angle, cut out a part of the still image, and display the display data of the second and subsequent display images.
  • Another moving image display method includes a step of cutting out a part of a still image captured using a wide-angle lens and generating display data of a first display image in which a desired subject is captured; Prior to cropping the second and subsequent still images that are captured using the lens, the imaging angle changes from the timing of the previous captured still image to the timing of capturing the still image to be extracted Determining the amount of change of the relative angle with respect to the subject between the image position of the still image that was previously extracted and the image position of the target still image to be extracted, and the amount of change and relative angle of the specified image angle. Step to generate display data for the second and subsequent display images by shifting the cutout range of the image from the second and subsequent still images so that the amount of change is offset. And, a shall which have a.
  • the moving image display system includes each static image captured continuously using a wide-angle lens.
  • a storage means for storing a plurality of saved still image data in which angle information indicating each imaging angle or a change amount thereof is added to the still image data, and a stored still image data image stored in the storage means.
  • a cut-out display image generation unit that generates a display data of a plurality of display images by cutting out a part according to the imaging order, and a plurality of display images that are generated by the plurality of display data generated by the cut-out display image generation unit.
  • the clipped display image generating means then cuts out the second and subsequent images, and changes the imaging angle added to the clipped saved still image data or the clipped saved still image data or its change. Based on the angle information indicating the amount, the image extraction range is shifted to offset the amount of change in the imaging angle between the still image to be extracted and the still image that was previously extracted. Cut out the part.
  • each still image data continuously captured using a wide-angle lens has a respective imaging angle, angle information indicating a change amount thereof, Is a storage unit that stores a plurality of stored still image data to which imaging position information indicating the amount of change is added, and a part of the image of the stored still image data stored in the storage unit.
  • the cut-out display image generating means for generating display data of a plurality of display images in which the predetermined subject is cut out in order and the plurality of display images by the plurality of display data generated by the cut-out display image generating means are sequentially arranged.
  • Display means for displaying for displaying.
  • the clipped display image generation means then cuts out the second and subsequent images, and capture angle added to the clipped saved still image data or the clipped saved still image data or the amount of change thereof.
  • the amount of change in imaging angle between the previously extracted still image and the still image to be extracted, and the stored still image data to be extracted or the previously stored still image identified based on the angle information indicating The relative position of the image relative to the subject between the image position of the still image that was previously extracted and the image position of the still image to be extracted, which is specified based on the image position that is added to the image data or the image position information that indicates the amount of change. Shift the image cropping range so that the amount of change is offset. [0014] By adopting this configuration, it is possible to display a moving image in which a predetermined subject is continuously displayed without imaging with particular attention to a desired subject.
  • the display unit displays an image on which the imaging positions of a plurality of stored still image data stored in the storage unit are mapped.
  • a route display instructing unit; and a subject position specifying unit that specifies the position of the subject on the basis of specifying a position in a screen obtained by mapping a plurality of imaging positions displayed on the display unit.
  • the cut-out display image generating means specifies the amount of change in the relative angle with respect to the subject using the position of the subject specified by the subject position specifying means.
  • a screen in which imaging positions of a plurality of stored still image data stored in a storage unit are mapped on a map is used as a display unit in addition to the configuration of the invention described above.
  • the cut-out display image generating means specifies the amount of change in the relative angle with respect to the subject using the position of the subject specified by the subject position specifying means.
  • a wide-angle moving image capturing apparatus includes a wide-angle lens, an imaging unit that generates captured still image data of a square image including a circular image captured by the wide-angle lens, and an image captured by the imaging unit.
  • the wide-angle video imaging device is particularly conscious of the desired direction for imaging. Even without this, it is possible to obtain a moving image in a desired direction based on the first cut-out image from the moving image obtained by the wide-angle lens captured by the wide-angle moving image capturing apparatus.
  • the wide-angle moving image capturing apparatus has posture change detection means for detecting a change in posture of the device in addition to the configuration of the invention described above. Then, the adding means adds the amount of change in the posture detected by the posture change detecting means as angle information.
  • angle information can be generated and added.
  • Another wide-angle moving image capturing apparatus includes a wide-angle lens, an image capturing unit that generates captured still image data of a square image including a circular image captured by the wide-angle lens, and an image captured by the image capturing unit.
  • the captured still image data or the compressed still image data obtained by compressing the captured still image data is added with angle information indicating the imaging angle or the amount of change thereof, and imaging position information indicating the imaging position or the amount of change thereof, and the stored still image data is added.
  • a predetermined subject can be continuously captured from a moving image by a wide-angle lens imaged by the wide-angle moving image pickup device without taking a desired subject into consideration with the wide-angle moving image pickup device.
  • a moving image to be displayed can be obtained.
  • Another wide-angle moving image capturing apparatus includes, in addition to the configuration of the above-described invention, posture change detection means for detecting a change in own posture and position detection means for detecting its own position. . Then, the adding means adds the change amount of the own posture detected by the posture change detecting means and the own position detected by the position detecting means as angle information and imaging position information.
  • angle information and imaging position information can be generated and added.
  • the position detecting means includes radio waves such as satellite radio waves, mobile phone base station radio waves, broadcast radio waves, and radio communication radio waves. , And a position based on absolute position information on the ground is detected.
  • the imaging position information of each still image constituting the moving image is displayed as a mapping path, and the relative position of the subject with respect to it is specified, or the imaging path and By specifying the position of the subject in the map on the map displayed together, it is possible to easily specify the position of the subject and the change amount of the relative angle with respect to the subject.
  • FIG. 1 is a perspective view showing an ultra-small and wide-angle camera device according to Embodiment 1 of the present invention.
  • FIG. 2 is a circuit diagram showing a hardware configuration built in the ultra-small and wide-angle camera device of FIG.
  • FIG. 3 is an explanatory view showing a configuration of an optical system of the ultra-small and wide-angle camera device of FIG.
  • FIG. 4 is an explanatory view showing an example of an image formed on the light receiving surface of the CMOS imaging device.
  • FIG. 5 is a block diagram showing functions implemented in the ultra-small and wide-angle camera device of FIG. 1 during imaging.
  • FIG. 6 is a diagram showing an example of a display screen displayed by the display device based on display still image data generated by the display image generation unit.
  • FIG. 7 is a flow chart showing the flow of imaging operation by the ultra-small and wide-angle camera device of FIG.
  • FIG. 8 is a block diagram showing a moving image display system according to Embodiment 1 of the present invention.
  • FIG. 9 is a flowchart showing a flow of a display operation by reproduction in the moving image display system of FIG.
  • FIG. 10 is a flowchart showing a flow of processing executed by the display image generation unit of the ultra-small and wide-angle camera device in the display operation by reproduction.
  • FIG. 11 is an explanatory diagram of the second and subsequent cut-out processing of a moving image by the display image generation unit.
  • FIG. 12 is a block diagram showing a moving image display system according to Embodiment 2 of the present invention.
  • FIG. 13 is a diagram showing an example of a map display screen displayed on the LCD of the personal computer in FIG.
  • FIG. 14 is a flowchart showing a flow of processing executed by the display image generation unit in FIG. 12 in a display operation by reproduction.
  • FIG. 15 shows four screens that can be displayed on a large LCD of a personal computer.
  • GPS receiver position detection means
  • Embodiment 1 a moving image display method, a moving image display system, and a wide-angle moving image capturing device according to an embodiment of the present invention will be described with reference to the drawings.
  • the wide-angle moving image imaging device will be described using an ultra-small wide-angle camera device as an example.
  • the video display system will be described using an ultra-small wide-angle camera device and a personal computer connected by a USB cable as an example.
  • the video display method will be explained as part of the operation of this video display system. [0033] Embodiment 1.
  • FIG. 1 is a perspective view showing an ultra-compact wide-angle camera device 1 according to Embodiment 1 of the present invention.
  • the ultra-small and wide-angle camera device 1 includes a main body unit 7 and a camera unit 8 connected to the main body unit 7 through a signal line 9.
  • the ultra-small wide-angle camera device 1 can be easily carried in a pocket.
  • the camera unit 8 is connected to the main unit 7 by wireless communication, but is incorporated into a part of the main unit 7! /, Or even! /.
  • the main unit 7 has a substantially rectangular plate shape having the same size as the portable music player.
  • Portable music players use HDD (Hard Disk Drive) and semiconductor memory to record content data.
  • an LCD (Liquid Crystal Display Device) 11 for displaying a display image by display data
  • an input device 12 for generating input data (see Fig. 2)
  • a plurality of operation keys 13, and communication data are stored.
  • the USB connector 14 to which the USB (Universal Serial Connector) cable 3 to be connected is connected is exposed.
  • the main unit 7 of FIG. 1 has an LCD 11 and a plurality of operation keys 13 arranged side by side on the upper surface, which is the upper side of FIG.
  • a USB connector 14 is disposed on the side surface on the lower right side of FIG.
  • a USB cable can be connected to the USB connector 14.
  • the USB cable has power supply wiring and signal wiring.
  • a mini B type connector is preferable because it is small.
  • the camera unit 8 has a substantially cubic housing, for example.
  • a fisheye lens 15 as a wide-angle lens is disposed on the upper surface on the upper side in FIG. Further, a ventilation hole 16 for the microphone 19 (see FIG. 2) is formed next to the exposed position of the fisheye lens 15.
  • the fisheye lens 15 has a flat object-facing surface that has a smaller amount of protrusion than the normal fisheye lens 15.
  • FIG. 2 is a circuit diagram showing a hardware configuration built in the ultra-small and wide-angle camera device 1 of FIG.
  • the ultra-small and wide-angle camera device 1 includes a complementary metal oxide semiconductor (CMOS) imaging device 17 as imaging means.
  • FIG. 3 is an explanatory diagram showing the configuration of the optical system of the ultra-small wide-angle camera device 1 of FIG.
  • the CMOS imaging device 17 has a light receiving surface 18 having an aspect ratio of 4: 3 (horizontal: vertical).
  • the light receiving surface 18 The aspect ratio may be 9: 4.
  • FIG. 3 is an explanatory diagram showing the configuration of the optical system of the ultra-small and wide-angle camera device 1 of FIG.
  • the CMOS imaging device 17 is disposed in a posture in which the fish-eye lens 15 is positioned in a direction substantially perpendicular to the light receiving surface 18.
  • the fisheye lens 15 has a wide viewing angle of 180 degrees or more (about 200 degrees).
  • FIG. 4 is an explanatory diagram showing an example of an image formed on the light receiving surface 18 of the CMOS imaging device 17. As shown in FIG. 4, the light collected by the fisheye lens 15 is projected onto the central portion of the light receiving surface 18. A circular image having a circular outline is formed on the central portion of the light receiving surface 18 by this light. The circular image is an image of the subject passing through the fisheye lens 15. The image at the outer periphery of the circular image is distorted compared to the image at the center.
  • peripheral portion (the hatched portion in FIG. 4) outside the range of the circular image of the light receiving surface 18 is slightly affected by light leaked from the camera unit 8 or light circulated due to diffraction or the like. Dried shading occurs.
  • the amount of light received at the peripheral edge is not 0, and the pixels at the peripheral edge are not uniformly black.
  • the CMOS imaging device 17 periodically reads the received light amounts of a plurality of light receiving elements arranged on the light receiving surface 18 and generates luminance distribution data of a square image having the same aspect ratio as that of the light receiving surface 18. .
  • the luminance distribution data of the rectangular image has luminance distribution data based on a circular image.
  • CMOS imaging device 17 Charge Coupled Device
  • the received light amounts of the plurality of light receiving elements arranged on the light receiving surface 18 can be read for each column.
  • the CCD reads the amount of received light for each light receiving element. Therefore, compared to the CMOS imaging device 17, the CCD tends to take more time from the start of light reception until the generation of one luminance distribution data. When the number of light receiving elements increases, it is necessary to capture a movie. In order to repeatedly generate luminance distribution data at a fixed imaging interval, the CMOS imaging device 17 is advantageous.
  • the ultra-small and wide-angle camera device 1 includes a microphone 19 and an AD converter 20.
  • the ultra-small and wide-angle camera device 1 includes a notch 26 and a power supply circuit 27 in order to supply power to these control circuits 25.
  • a fisheye lens 15, a CMOS imaging device 17, a microphone 19, a gyro sensor 22 and the like are arranged in the camera unit 8, and other circuit components are arranged in the main unit 7. It only has to be installed.
  • the microphone 19 picks up sounds around the ultra-small and wide-angle camera device 1.
  • the microphone 19 generates a sound signal such as voice.
  • the waveform of the sound signal changes according to the sound picked up by the microphone 19.
  • the AD converter 20 samples the sound signal and generates sound data 55 (see FIG. 5).
  • the GPS receiver 21 receives radio waves from GPS satellites launched into the earth's satellite orbit. This GPS satellite-powered radio wave includes the time of radio wave transmission and satellite position information.
  • the GPS receiver 21 receives radio waves of a plurality of GPS satellite forces, and periodically generates position data 52 (see FIG. 5) of the GPS receiver 21.
  • the GPS receiver 21 is provided in the ultra-small and wide-angle camera device 1. Therefore, the position data 52 of the GPS receiver 21 becomes the position data 52 of the ultra-small wide-angle camera device 1.
  • the gyro sensor 22 is disposed in the camera unit 8. When the camera mute 8 rotates or moves, the gyro sensor 22 detects the acceleration of the posture change due to the rotation or movement.
  • the gyro sensor 22 may detect, for example, acceleration in the vertical direction of the paper surface of FIG. 3 and acceleration in a direction perpendicular to the paper surface of FIG. That is, the gyro sensor 22 only needs to detect the acceleration of the movement of the light receiving surface 18 in two directions perpendicular to the light receiving surface 18.
  • the gyro sensor 22 periodically generates acceleration data 53 (see FIG. 5) having the detected acceleration value.
  • the battery 26 stores electricity.
  • Power supply circuit 27 is not 26 or USB cape
  • the power supplied from the power supply wiring of the power source 3 is supplied to each component of the ultra-small wide-angle camera device 1 by DC voltage.
  • the microcomputer 24 includes an IZO (input / output) port 31, a timer 32, a CPU (central processing unit) 33, a RAM (random access memory) 34, an EEPROM (Electronically Erasable and Programmable Read Only Memory) 35, and these System bus 36 etc.
  • IZO input / output
  • CPU central processing unit
  • RAM random access memory
  • EEPROM Electrically Erasable and Programmable Read Only Memory
  • the ultra-small and wide-angle camera device 1 of the first embodiment has one microcomputer.
  • the ultra-small and wide-angle camera device 1 may have a plurality of microcomputers.
  • the ultra-small and wide-angle camera device 1 executes, for example, a custom IC (Integrated Circuit) that performs color conversion, a DSP (Digital Signal Processor) that generates display still image data, and other processing. It may have a plurality of microcomputers such as ASIC (Application Specific IC).
  • ASIC Application Specific IC
  • the I / O port 31 of the microcomputer 24 has peripherals such as a CMOS imaging device 17, an AD converter 20, an LCD 11, an input device 12, a USB connector 14, a GPS receiver 21, a gyro sensor 22, and an HDD 23.
  • the device is connected.
  • the I / O port 31 supplies the data supplied from the CPU 33 and the like via the system bus 36 to the peripheral device and the data supplied also from the peripheral device power to the CPU 33 and the like via the system bus 36. Or supply
  • the timer 32 measures time.
  • the time measured by the timer 32 includes, for example, an absolute time such as a time or an elapsed time with a predetermined timing force.
  • the EEPROM 35 stores a control program 37 for controlling the ultra-small and wide-angle camera device 1.
  • the CPU reads the control program 37 stored in the EEPROM 35 into the RAM 34 and executes it.
  • the microcomputer 24, as shown in FIG. 5 has a color conversion processing unit 41, a camera storage processing unit 42, a JPEG engine 43 as an adding unit, and a display image as a cut-out display image generating unit.
  • the generation unit 44 and the like are realized.
  • FIG. 5 is a block diagram showing functions realized during imaging in the ultra-small wide-angle camera device 1 of FIG.
  • the microcomputer has a JPEG engine 4 as shown in FIG. 3.
  • a display image generation unit 44, a device communication unit 45, and the like are realized.
  • the color conversion processing unit 41 generates captured still image data 51 from the luminance distribution data.
  • the color conversion processing unit 41 converts luminance data of pixels within a predetermined circular range in the image of the luminance distribution data into corresponding color data, and applies a predetermined single color to pixels outside the predetermined circular range. Allocate color data (for example, black).
  • the predetermined circular range may coincide with the circular image range in the luminance distribution data image, or may be slightly larger or smaller than the circular image.
  • the JPEG engine 43 compresses the captured still image data 51 by the JPEG method to generate compressed still image data.
  • JPEG method for example, first, an image to be compressed is subjected to discrete cosine transform (DCT) processing and quantization processing in units of blocks for each predetermined number of pixels (for example, X pixels), so that a space in units of blocks of the image is obtained. Obtain the frequency component.
  • the spatial frequency component in the block unit of the image is composed of a DC component in the block unit and a plurality of AC components in the block unit.
  • the entropy encoding process for each frequency component of the image is performed to reduce the amount of image data.
  • the DC component of the image is encoded by a prediction code such as a Huffman code, and each AC component of the image is a run-length code such as an arithmetic code. Sign.
  • the JPE G engine 43 adds header data to the compressed still image data to generate JPEG data 54.
  • the JPEG engine 43 can also perform the decompression process by executing the above compression processes in the reverse order.
  • the compressed still image data (JPEG data 54) compressed in JPEG format is used to extract still images with the same image quality as the captured still image data 51 or the captured still image data 51. Image data can be obtained.
  • the camera storage processing unit 42 stores captured still image data 51 generated by the color conversion processing unit 41, compressed still image data (JPEG data 54) generated by the JPEG engine 43, decompressed still image data, and the like on the HDD 23. Save to.
  • JPEG data 54 compressed still image data generated by the JPEG engine 43
  • the display image generation unit 44 acquires still image data (for example, captured still image data 51, decompressed still image data, etc.) that has been compressed from the HDD 23 or the like, and acquires the acquired still image data. Generate still image data for display on a display device such as LCD11 The display image generation unit 44 generates display still image data of an image having a resolution of a display device that displays the display still image data, for example, from still image data of various numbers of pixels (number of pixels). The display image generation unit 44 may generate display still image data to be displayed on a part of the display device, for example, from still image data of various numbers of pixels (number of pixels). ! /.
  • FIG. 6 is a diagram illustrating an example of a display screen displayed by the display device based on the display still image data generated by the display image generation unit 44.
  • FIG. 6A is an example of a wide-angle screen that displays an image of the captured still image data 51 captured by the ultra-small and wide-angle camera device 1.
  • Fig. 6 (B) shows an example of a cut-out screen in which the cut-out image is enlarged after cutting out the area within the center solid line frame in Fig. 6 (A).
  • the solid line frame in FIG. Fig. 6 (C) shows an example of a double screen in which a wide-angle screen reduced by thinning out pixels is assigned to the upper left corner of the same cut-out image as that in Fig. 6 (B).
  • the display image generation unit 44 generates display still image data to be displayed on these screens.
  • FIG. 7 is a flowchart showing the flow of the imaging operation by the ultra-small and wide-angle camera device 1 of FIG.
  • the power camera unit 8 of the ultra-small and wide-angle camera device 1 is installed forward on the dashboard of the automobile.
  • the main unit 7 is housed in a glove box of an automobile.
  • the camera unit 8 may be attached to the person's forehead and the main unit 7 may be attached to the breast pocket or belt.
  • the color conversion processing unit 41, the camera storage processing unit 42, the JPEG engine 43, the display image generation unit 44 and the like start their respective operations.
  • the color conversion processing unit 41 acquires luminance distribution data from the CMOS imaging device 17 (step ST1).
  • the color conversion processing unit 41 converts luminance data of pixels within a predetermined circular range in the acquired luminance distribution data image into corresponding color data, and applies a predetermined value to pixels outside the predetermined circular range. Allocate single color data and generate still image data 51 (step ST2).
  • the color conversion processing unit 41 supplies the generated captured still image data 51 to the camera storage processing unit 42.
  • the camera storage processing unit 42 includes sound data 55 from the AD converter 20, position data 52 from the GPS receiver 21, and acceleration data 53 from the gyro sensor 22. Is supplied.
  • the camera storage processing unit 42 stores these supplied data as raw data in the HDD 23 (step ST3).
  • the JPEG engine 43 compresses the captured still image data 51 newly stored in the HDD 23. Start processing. The JPEG engine 43 compresses the captured still image data 51 using the JPEG method to generate JPEG data 54 (step ST4).
  • the JPEG engine 43 integrates the acceleration data 53 stored in the HDD 23, and receives light in the period from the imaging timing of the previous imaging still image data 51 to the imaging timing of the imaging still image data 51.
  • the amount of movement of surface 18 in two directions perpendicular to light receiving surface 18 is calculated.
  • the JPEG engine 43 attaches the generated displacement data based on the movement amount in the two directions to the JP EG data 54 as header data.
  • the JPEG engine 43 adds the latest position data 52 stored in the HDD 23 to the JPEG data 54 as header data.
  • the JPEG engine 43 adds the latest position data 52 and displacement data, and stores the PEG data 54 in the HDD 23 (step ST5).
  • the CMOS imaging device 17 generates luminance distribution data at a predetermined imaging cycle.
  • the ultra-small wide-angle camera device 1 executes the imaging operation of FIG. 7 every time luminance distribution data is generated.
  • the PEG data 54 based on the luminance distribution data generated by the CMOS imaging device 17 is accumulated in the HDD 23 of the ultra-small and wide-angle camera device 1.
  • Stored video data 56 composed of a plurality of JPEG data 54 is generated in the HDD 23 of the ultra-small wide-angle power device 1.
  • the stored video data 56 in the HDD 23 is updated by adding the data every time the JPEG engine 43 is new! /, And JPEG data 54 is generated.
  • the sound data 55 is stored in the HDD 23 to generate stored sound data 57.
  • the display image generation unit 44 acquires the captured still image data 51 with a force such as the HDD 23.
  • the display image generation unit 44 generates display still image data to be displayed on the LCD 11 of the ultra-small and wide-angle camera device 1 from the acquired still image data.
  • the display image generation unit 44 converts the resolution of a still image and displays the entire circular image.
  • Display still image data for displaying the wide-angle screen shown on the LCD 11 of the ultra-small and wide-angle camera device 1 is generated.
  • the display image generation unit 44 supplies the generated display still image data to the LCD 11 of the ultra-small and wide-angle camera device 1.
  • the LCD 11 of the ultra-small wide-angle camera device 1 displays an image of the supplied display still image data. Thereby, the user of the ultra-small and wide-angle camera device 1 can confirm whether or not the imaging angle force at the start of moving image capturing of the camera unit 8 is a predetermined angle.
  • the HDD 23 of the ultra-small and wide-angle camera device 1 has stored moving image data 56 composed of raw data such as captured still image data 51 and a plurality of JPEG data 54. Accumulated sound data 57 including a plurality of sound data 55 is stored.
  • FIG. 8 is a block diagram showing moving image display system 4 according to Embodiment 1 of the present invention.
  • the moving picture display system 4 includes the ultra-small and wide-angle camera device 1 shown in FIG.
  • the ultra-small wide-angle camera device 1 and the personal computer 2 are connected by a USB cable 3.
  • the ultra-small and wide-angle camera device 1 When connected to the personal computer 2 via the USB cable 3, the ultra-small and wide-angle camera device 1 enters the moving image display mode.
  • the ultra-small and wide-angle camera device 1 includes the JPEG engine 43, the display image generation unit 44, and device communication. Part 45 etc. are realized.
  • the JPEG engine 43 and the display image generation unit 44 are the same as those at the time of imaging in FIG.
  • the device communication unit 45 performs data communication based on the USB standard using the USB connector 14.
  • the device communication unit 45 transmits / receives communication data to / from a host communication unit 81 described later of the personal computer 2.
  • the device communication unit 45 includes a class processing unit 46 such as SIC (Still Image Class) or MSC (Mass Storage Class).
  • the class processing unit 46 has various communication buffers such as endpoints according to classes. When the communication data is recorded in the communication buffer by the device communication unit 45, the class processing unit 46 transmits the communication data to the host communication unit 81. In addition, when receiving the communication data from the host communication unit 81, the class processing unit 46 stores the received communication data in the communication buffer and notifies the device communication unit 45 of the received communication data.
  • the personal computer 2 includes an input device 71 such as a keyboard and a pointing device, a large LCD 72 as a display means, a USB connector 73, an HDD 74, a microcomputer. Pewter 75 etc. Peripheral devices such as the input device 71, large LCD 72, USB connector 73, and HDD 74 are connected to an IZO port (not shown) of the microcomputer 75. A CPU (not shown) of the microcomputer 75 reads a client program (not shown) stored in the HDD 74 into a RAM (not shown) and executes it.
  • a power supply circuit 76 is connected to the power supply wiring of the USB connector 73.
  • the power feeding circuit 76 feeds power to the power circuit 27 of the ultra-small and wide-angle camera device 1 through the USB cable 3.
  • the host communication unit 81 transmits and receives communication data to and from the device communication unit 45 using the USB connector 73.
  • the host communication unit 81 includes a class processing unit 84 such as SIC or MSC.
  • the PC storage processing unit 83 stores various communication data such as display still image data received by the host communication unit 81 as received data 91 in the HDD 74 of the personal computer 2.
  • the PC display control unit 82 supplies the display still image data stored in the HDD 74 of the personal computer 2 to the large LCD 72. As a result, an image based on the display still image data is displayed on the LC D72 of the personal computer 2.
  • control program 37 stored in the EEPROM 35 of the microcomputer 24 of the ultra-small and wide-angle camera device 1 and the client program (not shown) stored in the HDD 74 of the personal computer 2 are not stored before the shipment of these devices. Even those stored in the EE PROM 35 or HDDD 74 serving as the storage device may be installed after shipment and stored in these storage devices 35 and 74. Programs and data that are installed after shipment are stored in a computer-readable recording medium such as a CD-ROM (not shown), and can be obtained via a communication medium such as the Internet (not shown). Even if it was something.
  • the client program stored in HDD74 of personal computer 2 is It may be stored as a string between a system program and an application program. Further, the client program may be stored as a combination of an operating system program, a browser (browsing) program, and a plug-in program that operates as a part of the browser program. For example, a browser program or a plug-in program may be installed together with the operating system program to configure a client program in the personal computer 2 after the personal computer 2 is shipped! ,.
  • FIG. 9 is a flowchart showing a flow of display operation by reproduction in the moving image display system 4 of FIG.
  • FIG. 10 is a flowchart showing a flow of processing executed by the display image generation unit 44 of the ultra-small and wide-angle camera device 1 in the display operation by reproduction.
  • the JPEG engine 43 of the ultra-small wide-angle camera device 1 stores the first JPEG data 54 stored in the HDD 23. Is read. JPEG engine 43 reads ⁇ [decompresses PEG data 54 and generates decompressed still image data.
  • the expanded still image data is data composed of a plurality of pixel data for each pixel of the image, like the captured still image data 51.
  • the JPEG engine 43 stores the generated decompressed still image data in the HDD 23 or the like.
  • the display image generation unit 44 of the ultra-small wide-angle camera device 1 When the first expanded still image data is generated by the JPEG engine 43, the display image generation unit 44 of the ultra-small wide-angle camera device 1 generates the first display still image data as shown in FIG. Is started (step ST31).
  • the display image generation unit 44 reads the first decompressed still image data by force such as the HDD 23, and generates display still image data to be displayed on the display device from the read still image data.
  • the display image generation unit 44 generates display still image data to be displayed on the wide-angle screen in FIG. 6A (step ST11 in FIG. 9).
  • the display image generation unit 44 supplies display still image data to be displayed on the generated wide-angle screen to the device communication unit 45.
  • the device communication unit 45 of the ultra-small and wide-angle camera device 1 transmits it to the host communication unit 81 of the personal computer 2 (step ST in FIG. 9). 12). Specifically, the device communication unit 45 stores the display still image data in the communication buffer generated by the class processing unit 46 and transmits it to the host communication unit 81. The display still image data is transmitted from the communication buffer of the device communication unit 45 to the communication buffer of the host communication unit 81 via the USB connector 14 of the device communication unit 45, the USB cable 3, and the USB connector 73 of the host communication unit 81. Sent to. The host communication unit 81 supplies the display still image data received in the communication buffer to the PC storage processing unit 83. Through the above processing, the display still image data to be displayed on the wide-angle screen generated by the display image generation unit 44 is transmitted to the PC storage processing unit 83 of the personal computer 2.
  • the PC storage processing unit 83 of the personal computer 2 stores the display still image data received from the display image generation unit 44 as received data 91 in the HDD 74 of the personal computer 2.
  • the display still image data based on the first JPEG data 54 of the stored moving image data 56 is stored in the HDD 74 of the personal computer 2.
  • the PC display control unit 82 reads the display still image data from the HDD 74 of the personal computer 2, and Supplied as display data to LCD72. As a result, an image corresponding to the display designation command generated by the PC display control unit 82 is displayed on the large LCD 72 of the personal computer 2.
  • the large LCD 72 of the monosonic computer 2 displays a wide-angle screen in which the periphery of the circular image shown in Fig. 6 (A) is painted black.
  • the display image generation unit 44 repeatedly executes the process shown in FIG. 10 in the display operation by this reproduction.
  • the display image generation unit 44 generates display still image data of the first wide-angle screen (step ST31), then receives a display designation command for switching the display (step ST32), and waits for the video display cycle to elapse (step ST31). ST33).
  • the PC display control unit 82 of the personal computer 2 determines the position and size of the cutting ring 61 on the wide-angle screen based on the input data generated by the input device 71 by the operation of the user of the video display system 4. adjust. For example, as shown in FIG. 6 (A), the user sets the cutting ring 61 at the center of the wide-angle screen. Based on the input data from the input device 71, the PC display control unit 82 displays the image in the cutout ring 61. A display designation command for cutting out and displaying a moving image is generated (step ST13 in FIG. 9).
  • the PC display control unit 82 supplies the generated display designation command to the host communication unit 81.
  • the host communication unit 81 transmits the supplied display designation command to the device communication unit 45 via the US B connector 73 of the personal computer 2, the USB cable 3, and the USB connector 14 of the ultra-small wide-angle camera device 1 (see FIG. 9 steps ST14).
  • the device communication unit 45 supplies the received display designation command to the display image generation unit 44.
  • the display image generation unit 44 determines that there has been an instruction to switch display in step ST32 of FIG. 10, and currently displays it. From the JPEG data 54, new display still image data is generated according to the switching instruction by this command (step 34, step ST15 in FIG. 9).
  • the display image generation unit 44 reads the expanded still image data, such as the HDD 23, and extracts a range corresponding to the position and size of the extraction ring 61 of the read expanded still image data, Execute image outline correction processing and distortion correction processing (for example, distortion aberration correction processing) so that the outline of the cut-out image becomes a square image with a predetermined aspect ratio and resolution, and generate display still image data for the cut-out screen .
  • the display image generation unit 44 enlarges the image to a predetermined size displayed on the large LCD 72 of the personal computer 2 at an enlargement ratio corresponding to the size of the image that has been cut out, and displays the still image data of the cut-out screen that has been enlarged. Is generated.
  • Display image generation unit 44 causes device communication unit 45 to transmit the generated display still image data of the cut-out screen (step ST16 in Fig. 9).
  • the display still image data of the cut-out screen is stored in the HDD 74 of the personal computer 2.
  • the PC display control unit 82 of the personal computer 2 displays an image based on the display still image data on the LCD 72 of the personal computer 2 (step ST17 in FIG. 9).
  • the image in the range specified by the user with the cutout ring 61 is enlarged and displayed on the LCD 72 of the personal computer 2.
  • the cutout screen as shown in FIG. 6B is displayed on the LCD 72 of the personal computer 2.
  • the display image generation unit 44 When an instruction to display a moving image is received by the above-described display designation command or the like (Yes in step ST33 in FIG. 10), the display image generation unit 44 thereafter stores the second stored moving image data 56. The subsequent generation processing of the display still image data of the clipped image by JPEG data 54 is executed (steps ST35 and ST36 in FIG. 10, steps ST18 and ST21 in FIG. 9).
  • the JPEG engine 43 reads the JPEG data 54 that has been decompressed lastly from the stored moving image data 56 stored in the HDD 23 in accordance with the imaging order, and that follows the JPEG data 54.
  • the JPEG engine 43 reads ⁇ [decompresses the PEG data 54 and generates decompressed still image data.
  • the display image generation unit 44 When the decompressed still image data is generated by the JPEG engine 43, the display image generation unit 44 first reads the decompressed JPEG data 54 header data from the HDD 23 and obtains displacement data. Based on the displacement data, the display image generation unit 44 specifies the amount of change in the imaging angle from the imaging timing of the previously extracted PEG data 54 to the imaging timing of the newly extracted JPEG data 54 (step ST35 in FIG. 10). ).
  • the display image generation unit 44 After specifying the change amount of the imaging angle, the display image generation unit 44 extracts the image within the range of the extraction ring 61 from the decompressed image by the JPEG data 54, and performs image external correction processing and distortion. Perform correction processing and generate display still image data for the cropped screen (step ST36 in Fig. 10). At this time, the display image generation unit 44 moves the position of the extraction ring 61 in a direction that cancels the amount of change in the imaging angle and with the same amount of movement as the amount of change in the imaging angle. Cut out the image.
  • FIG. 11 is an explanatory diagram of the second and subsequent cutout processing of a moving image by the display image generation unit 44.
  • the upper left image in FIG. 11 is a wide-angle image based on the first JPEG data 54.
  • the upper right image in FIG. 11 is a cut-out image in which the still image power of the first JPEG data 54 at the upper left is also cut out.
  • the lower left image in FIG. 11 is a wide-angle image based on the second JPEG data 54.
  • the lower right image in FIG. 11 is a cut-out image cut out from the second JPEG data 54 still image in the upper right.
  • the object in the circular image as shown in the next lower-left wide-angle image moves to the left.
  • the JPEG data 54 of the second wide-angle image stores displacement data as a displacement amount of the photographing angle that is opposite to the subject displacement amount.
  • the display image generation unit 44 transmits the generated display still image data to the device communication unit 45 (see FIG. 9). Step ST19, ST22).
  • the display still image data of the new clipped screen after the second moving image is stored as the received data 91 in the HDD 74 of the personal computer 2.
  • the PC display control unit 82 of the personal computer 2 causes the LCD 72 of the personal computer 2 to display an image based on new display still image data after the second moving image (steps ST20 and ST23 in FIG. 9).
  • a moving image based on a cut-out screen for enlarging and displaying an image in a range designated by the user with the cut-out ring 61 is displayed.
  • the CMOS imaging device 17 captures a still image data 51 of a rectangular still image including a circular image captured by the fisheye lens 15. Generate.
  • the JPEG engine 43 adds angle information (information on the amount of change in imaging angle) detected by the gyro sensor 22 to compressed still image data 51 obtained by compressing the captured still image data 51 captured by the CMOS imaging device 17. Generate JPEG data 54.
  • the HDD 23 stores and stores this JPEG data 54.
  • the display image generation unit 44 of the ultra-small wide-angle camera device 1 includes the HDD 23 A part of the image of the JPEG data 54 stored in the image is cut out according to the imaging order, and display still image data of a plurality of cut out still images is generated.
  • the LCD 72 of the personal computer 2 includes a plurality of display images generated by the display image generation unit 44. A plurality of clipped still images based on the displayed still image data are displayed in order.
  • the display image generation unit 44 of the ultra-small and wide-angle camera device 1 determines the amount of change from the imaging angle of the previously extracted still image in the extraction of the second and subsequent still images. Based on the angle information added to the JPEG data 54, the image is identified and the image extraction range is shifted so that a part of the still image is extracted so as to cancel out the change amount of the imaging angle.
  • the moving image display system 4 does not have to capture the desired direction with the ultra-small and wide-angle camera device 1, and the desired display based on the first cut-out image is used.
  • Directional video can be played and displayed.
  • the display image generation unit 44 stops moving image reproduction and switches the screen. Thereafter, when video playback is designated, the display image generation unit 44 starts video playback at the angle after the switching. As a result, the user can seamlessly reproduce the moving image and the still image. During playback, the video screen can be switched in any direction at any position.
  • FIG. 12 is a block diagram showing a moving image display system 4A according to Embodiment 2 of the present invention.
  • the ultra-small and wide-angle camera device 1 of the moving image display system 4A includes a display image generation unit 101 and a route data generation unit 102 as cut-out display image generation means.
  • the personal computer 2 of the moving image display system 4A has map data 103 stored in the HDD 74, and a PC display control unit 104 as an imaging path display instruction unit and a subject position specifying unit.
  • the display image generation unit 101 acquires still image data (eg, captured still image data 51, decompressed still image data, etc.) that is not compressed, such as the HDD 23, and the acquired still image data such as the LCD 72 Generates display still image data for display on a display device.
  • the display image generating unit 101 generates display still image data to be displayed on the cut-out screen, the cut-out range by the cut-out ring so as to cancel out the change amount of the relative angle of the image pickup position with respect to the subject as well as the change amount of the image pickup angle.
  • the route data generation unit 102 reads the plurality of position data 52 from the headers of the plurality of JPEG data 54 stored as the accumulated moving image data 56 in the HDD 23.
  • the route data generation unit 102 generates route data including a plurality of position data 52.
  • the map data 103 includes display map data in which roads and the like in a predetermined area are drawn, and latitude and longitude data of each point in the map.
  • the PC display control unit 104 displays on the LCD 72 of the personal computer 2 an image display screen based on the display still image data generated by the display image generation unit 101 and a map display screen that displays the display map data of the map data 103. Is displayed.
  • the imaging display screen and the map display screen may be allocated and displayed within one screen or may be displayed on separate screens.
  • the constituent elements other than those described above have the same functions as the constituent elements of the same names in the first embodiment. Omitted.
  • the PC display control unit 104 of the personal computer 2 When the ultra-small and wide-angle camera device 1 is connected to the personal computer 2 via the USB cable 3, the PC display control unit 104 of the personal computer 2 generates a transmission request for imaging path data and supplies it to the host communication unit 81. To do.
  • the host communication unit 81 of the personal computer 2 transmits an imaging path data transmission request to the device communication unit 45 of the ultra-small and wide-angle camera device 1.
  • the imaging path data transmission request is specifically transmitted to the device communication unit 45 via the USB connector 73 of the personal computer 2, the USB cable 3, and the USB connector 14 of the ultra-small wide-angle camera device 1.
  • the device communication unit 45 supplies the transmission request for the received imaging path data to the path data generation unit 102.
  • the path data generation unit 102 reads the header data of the plurality of JPEG data 54 stored as the accumulated moving image data 56 in the HDD 23. Then, the route data generation unit 102 extracts the position data 52 from the read header data, and generates route data in which a plurality of the position data 52 are arranged in the imaging order of the JPEG data 54. [0114]
  • the route data generation unit 102 supplies the generated route data to the device communication unit 45.
  • the device communication unit 45 transmits the route data to the host communication unit 81 of the personal computer 2.
  • the host communication unit 81 supplies the received route data to the PC display control unit 104.
  • the PC display control unit 104 of the personal computer 2 reads the map data 103 from the HDD 74, and receives each of the received route data.
  • the position data 52 is mapped (allocated) on the map based on the correspondence relationship between latitude and longitude, and display data is generated.
  • the PC display control unit 104 supplies the generated display data to the LCD 72 of the personal computer 2.
  • the LCD 72 of the personal computer 2 displays a map display screen in which an imaging route is assigned on the map.
  • FIG. 13 is a diagram showing an example of a map display screen displayed on the LCD 72 of the personal computer 2 in FIG.
  • the map display screen in Fig. 13 displays multiple roads that intersect at the center of the screen and a mountain located at the top right of the screen.
  • an imaging path 110 that is directed toward the intersection at the center of the screen from the lower center of the screen is displayed.
  • the point force black circles of the position data 52 of the route data acquired from the route data generation unit 102 are displayed.
  • the points of the four position data 52 are displayed as black circles.
  • the black circle point 111 at the bottom is the shooting point of the first captured still image of the video
  • the black circle point 112 above is the shooting point of the second still image.
  • the PC display control unit 104 specifies the vicinity of the top of the mountain (marked X) in FIG. 13 as the position 114 of the subject for image display.
  • the PC display control unit 104 supplies information on the identified subject position 114 to the host communication unit 81.
  • the host communication unit 81 transmits information on the position 114 of the subject to the device communication unit 45 of the ultra-small and wide-angle camera device 1.
  • the device communication unit 45 sends the display image generation unit 101 to Information on the position 114 of the subject is supplied.
  • the display image generation unit 101 stores the supplied information on the position 114 of the subject in the HDD 23 or the like.
  • the display image generation unit 101 executes display data generation processing for displaying a moving image related to the supply.
  • FIG. 14 is a flowchart showing the flow of processing executed by the display image generation unit 101 in FIG. 12 in the display operation by reproduction.
  • the display image generation unit 101 first reads, from the HDD 23 or the like, decompressed still image data obtained by decompressing the first JP EG data 54 of the stored moving image data 56 by the JPEG engine 43, and from the read decompressed still image data, First display still image data for displaying a wide-angle screen on the display device is generated (step ST31).
  • the display image generation unit 101 supplies the generated display still image data to the device communication unit 45 and transmits it to the personal computer 2.
  • display still image data for displaying a wide-angle screen is stored as received data 91 in the HDD 74 of the personal computer 2.
  • the PC display control unit 104 reads the display still image data from the HDD 74 of the personal computer 2, and Supplied as display data to LCD72.
  • the large-sized LCD 72 of the personal computer 2 displays an imaging display screen with a wide-angle screen in which the circular image is painted black.
  • FIG. 15 is a diagram showing four screens that can be displayed on the large LCD 72 of the personal computer 2.
  • the upper left screen in FIG. 15 is a wide-angle screen based on the first JPEG data 54 of the stored moving image data 56.
  • the screen in the upper right of FIG. 15 is a cut-out screen that has been cut out from the first JPEG data 54 image of the stored moving image data 56 by the cut-out ring 61 and then subjected to distortion correction and enlargement processing.
  • the lower left screen in FIG. 15 is a wide-angle screen based on the second JPEG data 54 of the stored video data 56.
  • FIG. 15 is a cut-out screen that has been cut out from the second JPEG data 54 of the accumulated video data 56 by the cut-out ring 122 and then subjected to distortion correction and enlargement processing.
  • the first wide-angle screen in Fig. 15 and the second wide-angle screen are clearly shown by comparing the upper-left wide-angle screen in Fig. 15 with the lower-left wide-angle screen.
  • the imaging angle of the fisheye lens 15 does not change between the wide-angle screen of the eyes. Only the imaging position has changed due to the forward movement. Due to this change in the imaging position, the position of the top of the mountain that is the subject does not change, but the angle of the mountain changes slightly.
  • the PC display control unit 104 of the personal computer 2 adjusts the position and size of the cutting ring 61 on the wide-angle screen based on the input data generated by the input device 71 by the user's operation of the video display system 4A. .
  • the user sets the cutting ring 61 on the right side of the wide-angle screen as shown in the upper-left wide-angle screen in FIG.
  • the PC display control unit 104 generates a display designation command for cutting out the image in the cutout ring 61 and displaying the moving image, and transmits the display designation command to the display image generation unit 101 of the ultra-small and wide-angle camera device 1.
  • display image generation unit 101 determines that a display switching instruction has been given in step ST32 of FIG. 14, and first JPEG data 54 of accumulated moving image data 56 currently displayed is displayed. A part of the image is clipped according to the switching instruction by this command, and new display still image data based on the clipped image is generated (step 34).
  • Display image generation unit 101 transmits display still image data of the generated cutout screen to personal computer 2.
  • the PC display control unit 104 reads the received display still image data from the HDD 74 and displays a cut-out screen on the LCD 72 of the personal computer 2. As a result, for example, the cut-out screen on the upper right in FIG. 15 is displayed on the LCD 72 of the personal computer 2.
  • the display image generation unit 101 executes a generation process of the cut-out image display still image data based on the second and subsequent JPEG data 54 of the accumulated moving image data 56 (steps ST35, ST41 and ST42).
  • the JPEG engine 43 reads the JPEG data 54 that has been decompressed lastly from the stored moving image data 56 stored in the HDD 23 in accordance with the order of image capturing, following the JPEG data 54.
  • the JPEG engine 43 reads ⁇ [decompresses the PEG data 54 and generates decompressed still image data.
  • the display image generating unit 101 When the decompressed still image data is generated by the JPEG engine 43, the display image generating unit 101 first reads the header data of the decompressed ⁇ JPEG data 54 from the HDD 23, and converts it. Get position data. Based on the displacement data, display image generation unit 101 specifies the amount of change in the imaging angle from the previous extraction ⁇ JPEG data 54 imaging timing to the newly extracted JPEG data 54 imaging timing (step ST35).
  • the display image generation unit 101 After identifying the amount of change in the imaging angle, the display image generation unit 101 extends from the HDD 23 ⁇ the header data of the JPEG data 54, the header data of the previous JPEG data 54, and the subject position 114. And the amount of change in relative angle with respect to the subject is specified (step ST41).
  • the display image generation unit 101 identifies the position of the subject and the two imaging positions, and calculates the relative angle variation ⁇ diff based on the identified positions.
  • the display image generation unit 101 After identifying the fluctuation amount of the imaging angle and the fluctuation amount of the relative angle with respect to the subject, the display image generation unit 101 generates the extraction ring 122 instead of the extraction ring 61, and is expanded ⁇ JPEG data 54 The image within the range of the cut ring 122 is cut out from the image obtained by the above, the image outline correction processing and distortion correction processing are performed, and the display still image data of the cut screen is generated (step ST42).
  • the display image generation unit 101 sets the position of the extraction ring 122 to the position of the previous extraction ring 61 with the same amount of movement as the amount of change of the imaging angle in a direction that cancels the amount of change of the imaging angle. Then, a new cut ring 1222 is generated by moving the position of the cut ring 61 in a direction that cancels the change amount of the relative angle and with the same move amount as the change amount of the relative angle. The image within the range of the ring 122 is cut out.
  • the wide-angle screen in the lower left of Fig. 15 is a wide-angle screen based on the second JPEG data 54 of the stored moving image data.
  • the imaging angle of the fish-eye lens 15 itself with respect to this second wide-angle screen is not changed from the imaging angle of the first wide-angle screen in the upper left of FIG.
  • the imaging angle with respect to the subject changes as the imaging position advances.
  • the display image generation unit 101 is in a direction that cancels the amount of change in the relative angle and the relative angle.
  • the position of the extraction ring 122 is moved by the same movement amount as the change amount of the image, and the image is cut out.
  • the cutout ring 121 indicated by the dotted line is located at the same Cf as the cutout ring 61 in the upper left wide-angle screen in FIG.
  • the mountain as the subject moves to the outside of the image by the amount that the imaging position approaches the mountain from the black circle point 111 to the black circle point 112 as shown in FIG.
  • the display image generation unit 101 moves the cut ring 121 to the right side of the screen so as to cancel the relative angle change amount ⁇ diff caused by this, and cuts the image by the cut ring 122 at that position.
  • the subject moving within the continuous circular image substantially stops within the continuous cut-out image.
  • the movement of the subject due to the change in the relative angle is , They are canceled out in successive cut-out images.
  • the scenery of the mountain base changes.
  • the display image generation unit 101 When the display still image data for the second and subsequent cutout screens of the moving image is generated by the above series of processing (steps ST35, ST41, and ST42), the display image generation unit 101 generates the generated display still image. Data is transmitted to the personal computer 2.
  • the PC display control unit 104 of the personal computer 2 reads the display still image data of the second and subsequent new cut-out images of the received video from the HDD 74 and displays them on the LCD 72 of the personal computer 2. Thereby, on the LCD 72 of the personal computer 2, a moving image is displayed on the cut-out screen that continuously captures the subject for which the user has designated the position 114. For example, the LCD 72 displays a cut-out screen that projects the subject in the center at the lower right in FIG.
  • the CMOS imaging device 17 captures the still image data 51 of the rectangular still image including the circular image captured by the fisheye lens 15. Generate.
  • the JPEG engine 43 adds angle information detected by the gyro sensor 22 and imaging position information by the GPS receiver 21 to compressed still image data 51 compressed from the captured still image data 51 captured by the CMOS imaging device 17.
  • JPEG data 54 is generated.
  • the display image generation unit 101 of the moving image display system 4A cuts out part of the image of the JPEG data 54 stored in the HDD 23 according to the imaging order, and displays a plurality of tables. Display still image data of the displayed image is generated.
  • the LCD 72 of the personal computer 2 sequentially displays a plurality of display images based on a plurality of display still image data generated by the display image generation unit 101.
  • the display image generation unit 101 of the moving image display system 4A when cropping the second and subsequent images, captures the JPEG data 54 to be cropped or the imaging angle added to the JPEG data 54 cropped before that.
  • the amount of change in imaging angle between the previously extracted still image and the still image to be extracted which is specified based on the angle information indicating the amount of change
  • the JPEG data 54 to be extracted or extracted before that
  • the image position of the previously extracted still image and the image position of the still image to be extracted which are specified based on the image position information indicating the image position added to the JPEG data 54 or its change amount.
  • a part of the image is cut out by shifting the cutout range of the image so as to offset the amount of change in the relative angle with respect to the subject.
  • the ultra-small and wide-angle camera device 1 does not capture an image of a desired subject in particular, that is, without maintaining an angle at which a predetermined subject is continuously captured, a moving image is displayed.
  • the system 4A can reproduce a moving image that continuously displays a predetermined subject.
  • the GPS receiver 21 receives satellite waves and detects a position based on absolute position information on the ground.
  • the PC display control unit 104 causes the LCD 72 of the personal computer 2 to display a screen in which the imaging positions of a plurality of JPEG data 54 stored in the HDD 23 of the ultra-small wide-angle camera device 1 are mapped on the map.
  • the subject position 114 is specified based on the specification of the position in the map displayed on the LCD 72 of the personal computer 2.
  • the display image generation unit 101 uses the information on the position 114 of the subject specified by the PC display control unit 104 to specify the amount of change in the relative angle with respect to the subject.
  • the JPEG engine 43 adds the angle information and the imaging position information to the compressed still image data obtained by compressing the captured still image data 51.
  • the JPE G engine 43 may add angle information to the compressed still image data obtained by compressing the captured still image data 51.
  • the JPEG engine 43 may add information other than angle information and imaging position information, such as imaging time information, to the compressed still image data obtained by compressing the captured still image data 51.
  • the angle information included in the header data of JPEG data 54 is the amount of change in imaging angle obtained by integrating the acceleration detected by the gyro sensor 22 provided in the ultra-small and wide-angle camera device 1. is there.
  • the angle information may be information on the absolute imaging AND direction of the ultra-small wide-angle camera device 1 based on, for example, the lead straight direction and the east, west, south, and north directions.
  • the imaging position information included in the header data of JPEG data 54 is a detection position by the GPS receiver 21 provided in the ultra-small and wide-angle camera device 1.
  • the GP S receiver 21 detects the absolute position on the ground.
  • the imaging position information may be relative position information of the ultra-small wide-angle camera device 1 such as the moving amount and moving direction of the imaging position in the imaging interval of the ultra-small wide-angle camera device 1.
  • a receiver that receives radio waves other than satellite radio waves such as radio waves from mobile phone base stations, broadcast radio waves, and radio communication radio waves, and detects the position based on absolute position information on the ground. Even if you use it.
  • the display image generation unit 44 performs the image generation by the extraction ring 61 so as to completely cancel the amount of change in the imaging angle between the previously extracted still image and the newly extracted still image.
  • the cutout range of is shifted.
  • the display image generation unit 101 according to the second embodiment performs the change in the imaging angle between the previously extracted still image and the newly extracted still image, and the subject of the previously extracted still image and the newly extracted still image.
  • the cropping range of the image has been shifted so that all the changes in the relative angle are offset.
  • the display image generation units 44 and 101 can detect the change amount of the imaging angle and the change amount of the relative angle with respect to the subject.
  • the cutout range of the image may be shifted so as to cancel out, for example, about 90%.
  • the PC display control unit 104 displays the imaging path acquired from the ultra-small and wide-angle camera device 1 by mapping it on the map.
  • the PC display control unit 104 may map and display the imaging path on a monochrome image such as a blank sheet.
  • the PC display control unit 104 may select an arbitrary point on the monochrome image as the position of the subject and specify the amount of change in the relative angle with respect to the subject. As a result, the PC display control unit 104 can easily specify the position of the subject and specify the amount of change in the relative angle with respect to the subject.
  • the PC display control unit 104 instructs the display image generation unit 101 of the ultra-small and wide-angle camera device 1 to generate a moving image using a cut-out image.
  • the PC display control unit 104 requests the display image generation unit 101 to generate one predetermined cut-out still image, and allocates and displays the requested still image on a map or the like. You may do it.
  • the user can confirm the actual scenery at an arbitrary position on the map.
  • the PC display control unit 104 may request generation of a cut-out still image of the current position detected by the GPS receiver 21, and allocate and display the requested still image on a map. Thereby, the user can easily grasp the current position.
  • the PC display control unit 104 may request generation of a cut-out still image of a moving route set in advance on a map, and the requested still image may be allocated and displayed on the map.
  • the route can be guided by a preset moving route.
  • the user can check the actual scenery such as a turning intersection when moving along this moving route or in advance.
  • the PC display control unit 104 may request and display a plurality of cut out still images that are viewed in a plurality of directions from a predetermined position. By moss, it is possible to provide a landscape at a predetermined position by multi-under.
  • the ultra-small and wide-angle camera device 1 has the fisheye lens 15.
  • an ultra-small camera device having a normal lens, an ultra-small camera device having a telephoto lens, or the like may be used.
  • the video display systems 4, 4A include the ultra-small wide-angle camera device 1, The personal computer 2 and the USB cable 3 are connected.
  • the moving image display systems 4 and 4A may be configured as a single device such as the personal computer 2 having a wide-angle camera device or the like.
  • the ultra-small and wide-angle camera device 1 of the video display systems 4 and 4A and the personal computer 2 may be connected by other communication cables other than the USB cable 3, such as a LAN cable, a wireless communication line, etc. .
  • a server device or the like that relays communication data between the ultra-small and wide-angle camera device 1 and the personal computer 2 may be interposed. Industrial applicability
  • the present invention can be suitably used in an apparatus or system for recording or reproducing a moving image.

Abstract

 所望の被写体または方向を特に意識して撮像しなくとも、所望の被写体または方向の動画を表示する。  本発明に係る動画の表示方法は、広角レンズ15を用いて撮像される静止画の一部を切出し、最初の表示画像の表示データを生成するステップST31と、広角レンズ15を用いて撮像される2つ目以降の静止画の切出しステップST36に先立って、前回切出した静止画の撮像タイミングからその切出し対象の静止画を撮像する撮像タイミングまでにおける撮像アングルの変化量を特定するステップST35と、特定された撮像アングルの変化量を相殺するように2つ目以降の静止画からの画像の切出し範囲をずらしてその静止画の一部を切出し、2つ目以降の表示画像の表示データを生成するステップST36と、を有するものである。

Description

動画の表示方法、動画表示システムおよび広角動画撮像装置 技術分野
[0001] 本発明は、動画の表示方法、動画表示システムおよび広角動画撮像装置に関する 背景技術
[0002] 特許文献 1は、撮像手段によって撮影された動画像を動画データとして記録再生 する動画記録再生装置を開示する。動画記録再生装置は、撮影時に、揺れ検出回 路が動画像撮影時の装置本体の揺れ度合 、を検出し、この検出された揺れ度合 ヽ を動画データとともに補助記録装置に記録する。動画記録再生装置は、再生時には 、記録された揺れ度合いおよび動画データを読み出し、揺れ度合いを所定値と比較 する。動画記録再生装置は、比較の結果、揺れ度合いが所定値を超えているとき、 前記読み出された動画データに基づく動画像表示を停止させる。
[0003] 特許文献 1 :特開 2005— 348178号公報 (要約、特許請求の範囲、発明の詳細な説 明など)
発明の開示
発明が解決しょうとする課題
[0004] 特許文献 1の動画記録再生装置などの動画撮像装置により動画を撮像する場合、 撮像者は、動画撮像装置を所定のアングルに構えて撮像する。また、撮像者は、撮 像期間中、動画撮像装置を所定のアングルに維持するように構え続けなければなら ない。撮像者は、撮像している間は、常に、動画撮像装置を所定のアングルに維持 するようにたとえば手に持ち続けなければならな 、。この作業は多大な負荷を撮像者 に与える。
[0005] この負荷を避けるため、撮影者は、三脚台を使用するようになる。三脚台に動画撮 像装置を固定し、三脚台上で動画撮像装置を回転させるようになる。しかしながら、 三脚台を使用すると、撮影基材が増えるばカゝりでなぐ撮影者は、固定的な撮像場所 を確保する必要がある。また、撮影者は、自らが移動しながら撮影するときには、三脚 台に固定して撮像することができない。
[0006] 本発明は、所望の被写体または方向を特に意識して撮像しなくとも、所望の被写体 または方向の動画を表示することができる動画の表示方法、動画表示システムおよ び広角動画撮像装置を得ることを目的とする。
課題を解決するための手段
[0007] 本発明に係る動画の表示方法は、広角レンズを用いて撮像される静止画の一部を 切出し、最初の表示画像の表示データを生成するステップと、広角レンズを用いて撮 像される 2つ目以降の静止画の切出しに先立って、前回切出した静止画の撮像タイ ミンダカゝらその切出し対象の静止画を撮像する撮像タイミングまでにおける撮像アン ダルの変化量を特定するステップと、特定された撮像アングルの変化量を相殺するよ うに 2つ目以降の静止画からの画像の切出し範囲をずらしてその静止画の一部を切 出し、 2つ目以降の表示画像の表示データを生成するステップと、を有するものであ る。
[0008] この方法を採用すれば、所望の方向を特に意識して撮像しなくとも、最初の切出し 画像を基準とした所望の方向の動画を表示することができる。
[0009] 本発明に係る他の動画の表示方法は、広角レンズを用いて撮像される静止画の一 部を切出し、所望の被写体が写る最初の表示画像の表示データを生成するステップ と、広角レンズを用いて撮像される 2つ目以降の静止画の切出しに先立って、前回切 出した静止画の撮像タイミングカゝらその切出し対象の静止画を撮像する撮像タイミン グまでにおける撮像アングルの変化量と、前回切出した静止画の撮像位置とその切 出し対象の静止画の撮像位置との被写体に対する相対アングルの変化量とを特定 するステップと、特定された撮像アングルの変化量および相対アングルの変化量を 相殺するように 2つ目以降の静止画からの画像の切出し範囲をずらしてその静止画 の一部を切出し、 2つ目以降の表示画像の表示データを生成するステップと、を有す るものである。
[0010] この方法を採用すれば、所望の被写体を特に意識して撮像しなくとも、所定の被写 体を連続的に表示する動画を表示することができる。
[0011] 本発明に係る動画表示システムは、広角レンズを用いて連続的に撮像される各静 止画のデータに、それぞれの撮像アングルある 、はその変化量を示すアングル情報 が付加された複数の保存静止画データを記憶する記憶手段と、記憶手段に記憶さ れる保存静止画データの画像の一部を撮像順にしたがって切出し、複数の表示画 像の表示データを生成する切出表示画像生成手段と、切出表示画像生成手段によ り生成される複数の表示データによる複数の表示画像を順番に表示する表示手段と
、を有する。そして、切出表示画像生成手段は、 2つ目以降の画像の切出しにおい て、その切出し対象の保存静止画データあるいはその前に切出した保存静止画デ ータに付加された撮像アングルあるいはその変化量を示すアングル情報に基づ 、て 特定される、その切出し対象の静止画と前回切出した静止画との撮像アングルの変 化量を相殺するように、画像の切出し範囲をずらして画像の一部を切出す。
[0012] この構成を採用すれば、所望の方向を特に意識して撮像しなくとも、最初の切出し 画像を基準とした所望の方向の動画を表示することができる。
[0013] 本発明に係る他の動画表示システムは、広角レンズを用いて連続的に撮像される 各静止画のデータに、それぞれの撮像アングルある 、はその変化量を示すアングル 情報と、それぞれの撮像位置ある!、はその変化量を示す撮像位置情報とが付加され た複数の保存静止画データを記憶する記憶手段と、記憶手段に記憶される保存静 止画データの画像の一部を撮像順にしたがって切出し、所定の被写体が写る複数の 表示画像の表示データを生成する切出表示画像生成手段と、切出表示画像生成手 段により生成される複数の表示データによる複数の表示画像を順番に表示する表示 手段と、を有する。そして、切出表示画像生成手段は、 2つ目以降の画像の切出しに おいて、その切出し対象の保存静止画データあるいはその前に切出した保存静止 画データに付加された撮像アングルあるいはその変化量を示すアングル情報に基づ いて特定される、前回切出した静止画とその切出し対象の静止画との撮像アングル の変化量と、その切出し対象の保存静止画データあるいはその前に切出した保存静 止画データに付加された撮像位置あるいはその変化量を示す撮像位置情報に基づ いて特定される、前回切出した静止画の撮像位置とその切出し対象の静止画の撮像 位置との被写体に対する相対アングルの変化量とを相殺するように、画像の切出し 範囲をずらして画像の一部を切出す。 [0014] この構成を採用すれば、所望の被写体を特に意識して撮像しなくとも、所定の被写 体を連続的に表示する動画を表示することができる。
[0015] 本発明に係る他の動画表示システムは、上述した発明の構成にカ卩えて、記憶手段 に記憶される複数の保存静止画データの撮像位置をマッピングした画面を表示手段 に表示させる撮像経路表示指示手段と、表示手段に表示される複数の撮像位置を マッピングした画面中の位置の特定に基づ 、て、被写体の位置を特定する被写体位 置特定手段と、を有する。そして、切出表示画像生成手段は、被写体位置特定手段 により特定された被写体の位置を用いて、被写体に対する相対アングルの変化量を 特定する。
[0016] この構成を採用すれば、マッピング表示される撮像経路に対する被写体の相対的 な位置を特定することで、容易に、被写体の位置を特定し、被写体に対する相対ァ ンダルの変化量を特定することかできる。
[0017] 本発明に係る他の動画表示システムは、上述した発明の構成にカ卩えて、記憶手段 に記憶される複数の保存静止画データの撮像位置を地図上にマッピングした画面を 表示手段に表示させる撮像経路表示指示手段と、表示手段に表示される地図中の 位置の特定に基づいて、被写体の位置を特定する被写体位置特定手段と、を有す る。そして、切出表示画像生成手段は、被写体位置特定手段により特定された被写 体の位置を用いて、被写体に対する相対アングルの変化量を特定する。
[0018] この構成を採用すれば、撮像経路がマッピングされた地図上で被写体の地図中の 位置を特定することで、容易に、被写体の位置を特定し、被写体に対する相対アング ルの変化量を特定することかできる。
[0019] 本発明に係る広角動画撮像装置は、広角レンズと、この広角レンズにより撮像され た円形画像を含む四角形の画像の撮像静止画データを生成する撮像手段と、撮像 手段により撮像された撮像静止画データあるいはそれを圧縮した圧縮静止画データ に、撮像アングルある 、はその変化量を示すアングル情報を付加して保存静止画デ ータを生成する付加手段と、付加手段により生成される複数の保存静止画データを 蓄積記憶する記憶手段と、を有するものである。
[0020] この構成を採用すれば、広角動画撮像装置により所望の方向を特に意識して撮像 しなくとも、広角動画撮像装置に撮像された広角レンズによる動画から、最初の切出 し画像を基準とした所望の方向の動画を得ることができる。
[0021] 本発明に係る広角動画撮像装置は、上述した発明の構成に加えて、自身の姿勢 変化を検出する姿勢変化検出手段を有する。そして、付加手段は、姿勢変化検出手 段により検出された自身の姿勢の変化量を、アングル情報として付加する。
[0022] この構成を採用すれば、アングル情報を生成して付加することができる。
[0023] 本発明に係る他の広角動画撮像装置は、広角レンズと、この広角レンズにより撮像 された円形画像を含む四角形の画像の撮像静止画データを生成する撮像手段と、 撮像手段により撮像された撮像静止画データあるいはそれを圧縮した圧縮静止画デ ータに、撮像アングルあるいはその変化量を示すアングル情報と、撮像位置あるいは その変化量を示す撮像位置情報を付加して保存静止画データを生成する付加手段 と、付加手段により生成される複数の保存静止画データを蓄積記憶する記憶手段と 、を有するものである。
[0024] この構成を採用すれば、広角動画撮像装置により所望の被写体を特に意識して撮 像しなくとも、広角動画撮像装置に撮像された広角レンズによる動画から、所定の被 写体を連続的に表示する動画を得ることができる。
[0025] 本発明に係る他の広角動画撮像装置は、上述した発明の構成に加えて、自身の 姿勢変化を検出する姿勢変化検出手段と、自身の位置を検出する位置検出手段と 、を有する。そして、付加手段は、姿勢変化検出手段により検出された自身の姿勢の 変化量と、位置検出手段により検出された自身の位置とを、アングル情報および撮像 位置情報として付加する。
[0026] この構成を採用すれば、アングル情報および撮像位置情報を生成して付加するこ とがでさる。
[0027] 本発明に係る他の広角動画撮像装置は、上述した発明の各構成に加えて、位置 検出手段が、衛星電波、携帯電話用基地局の電波、放送電波、無線通信電波など の電波を受信し、地上における絶対的な位置情報による位置を検出するものである。
[0028] この構成を採用すれば、動画を構成する各静止画の撮像位置情報を撮像経路とし てマッピング表示し、それに対する被写体の相対的な位置を特定したり、撮像経路と ともに表示される地図上で被写体の地図中の位置を特定したりすることで、容易に、 被写体の位置を特定し、被写体に対する相対アングルの変化量を特定することかで きる。
発明の効果
[0029] 本発明では、所望の被写体または方向を特に意識して撮像しなくとも、所望の被写 体または方向の動画を表示することができる。
図面の簡単な説明
[0030] [図 1]図 1は、本発明の実施の形態 1に係る超小型広角カメラ装置を示す斜視図であ る。
[図 2]図 2は、図 1の超小型広角カメラ装置に内蔵されるハードウェアの構成を示す回 路図である。
[図 3]図 3は、図 1の超小型広角カメラ装置の光学系の構成を示す説明図である。
[図 4]図 4は、 CMOS撮像デバイスの受光面に結像する像の一例を示す説明図であ る。
[図 5]図 5は、図 1の超小型広角カメラ装置に撮像時に実現される機能を示すブロック 図である。
[図 6]図 6は、表示画像生成部が生成する表示静止画データにより、表示デバイスが 表示する表示画面の例を示す図である。
[図 7]図 7は、図 1の超小型広角カメラ装置による撮像動作の流れを示すフローチヤ ートである。
[図 8]図 8は、本発明の実施の形態 1に係る動画表示システムを示すブロック図である
[図 9]図 9は、図 8の動画表示システムにおける再生による表示動作の流れを示すフ ローチャートである。
[図 10]図 10は、再生による表示動作において、超小型広角カメラ装置の表示画像生 成部が実行する処理の流れを示すフローチャートである。
[図 11]図 11は、表示画像生成部による動画の 2つ目以降の切出し処理の説明図で ある。 [図 12]図 12は、本発明の実施の形態 2に係る動画表示システムを示すブロック図で ある。
[図 13]図 13は、図 12中のパーソナルコンピュータの LCDに表示される地図表示画 面の一例を示す図である。
[図 14]図 14は、図 12中の表示画像生成部が、再生による表示動作において実行す る処理の流れを示すフローチャートである。
[図 15]図 15は、パーソナルコンピュータの大型の LCDに表示可能な 4つの画面を示 す図である。
符号の説明
[0031] 1 超小型広角カメラ装置 (広角動画撮像装置)
4, 4A 動画表示システム
15 魚眼レンズ (広角レンズ)
17 CMOS撮像デバイス (撮像手段)
21 GPS受信機 (位置検出手段)
22 ジャイロセンサ(姿勢変化検出手段)
23 HDD (記憶手段)
43 JPEGエンジン (付カ卩手段)
44, 101 表示画像生成部 (切出表示画像生成手段)
51 撮像静止画データ
54 JPEGデータ (保存静止画データ)
72 LCD (表示手段)
104 PC表示制御部 (撮像経路表示指示手段、被写体位置特定手段)
発明を実施するための最良の形態
[0032] 以下、本発明の実施の形態に係る動画の表示方法、動画表示システム、および広 角動画撮像装置を、図面に基づいて説明する。広角動画撮像装置は、超小型広角 カメラ装置を例として説明する。動画表示システムは、超小型広角カメラ装置とパーソ ナルコンピュータとを USBケーブルにより接続したものを例として説明する。動画の 表示方法は、この動画表示システムの動作の一部として説明する。 [0033] 実施の形態 1.
図 1は、本発明の実施の形態 1に係る超小型広角カメラ装置 1を示す斜視図である
[0034] 超小型広角カメラ装置 1は、本体ユニット 7と、本体ユニット 7と信号線 9で接続され るカメラユニット 8と、を有する。超小型広角カメラ装置 1は、ポケットに入れて気軽に 携帯することができる。なお、カメラユニット 8は、無線通信により本体ユニット 7と接続 されて 、ても、本体ユニット 7の一部に組み込まれて!/、てもよ!/、。
[0035] 本体ユニット 7は、携帯音楽再生装置と同程度の大きさの略長方形の板形状を有 する。携帯音楽再生装置は、 HDD (ハードディスクドライブ)や半導体メモリなどをコ ンテンッデータの記録に使用する。
[0036] 本体ユニット 7には、表示データによる表示画像を表示する LCD (液晶表示デバィ ス) 11、入力データを生成する入力デバイス 12 (図 2参照)の複数の操作キー 13、通 信データを伝送する USB (Universal Serial Connector)ケーブル 3が接続され る USBコネクタ 14などが露出して配設される。図 1の本体ユニット 7は、図 1の上側と なる上面に、 LCD11および複数の操作キー 13が並べて配設される。また、図 1の右 下側となる側面に、 USBコネクタ 14が配設される。 USBコネクタ 14には、 USBケー ブルが接続可能である。 USBケーブルは、電源用の配線と、信号用の配線とを有す る。 USBコネクタ 14としては、たとえばミニ Bタイプのものが小型であり好ましい。
[0037] カメラユニット 8は、たとえば略立方体形状のハウジングを有する。カメラユニット 8に は、図 1の上側となる上面に、広角レンズとしての魚眼レンズ 15が露出して配設され る。また、魚眼レンズ 15の露出位置の隣には、マイク 19 (図 2参照)用の通気孔 16が 形成される。この魚眼レンズ 15は、通常の魚眼レンズ 15と比べて突出量が少なぐ平 面的な被写体対向面を有するものとなっている。
[0038] 図 2は、図 1の超小型広角カメラ装置 1に内蔵されるハードウェアの構成を示す回路 図である。超小型広角カメラ装置 1は、撮像手段としての CMOS (Complementary Metal Oxide Semiconductor)撮像デバイス 17を有する。図 3は、図 1の超小 型広角カメラ装置 1の光学系の構成を示す説明図である。 CMOS撮像デバイス 17 は、アスペクト比が 4 : 3 (横:縦)である受光面 18を有する。なお、受光面 18の縦横の アスペクト比は、 9 :4などであってもよい。 CMOS撮像デバイス 17の受光面 18には、 静止画を構成する複数の画素に対応する、図示外の複数の受光素子が縦横に並べ て配設される。受光面 18には、たとえば 300万画素分の複数の受光素子が配設され る。
[0039] 図 3は、図 1の超小型広角カメラ装置 1の光学系の構成を示す説明図である。図 3 に示すように、 CMOS撮像デバイス 17は、その受光面 18の略垂直方向に魚眼レン ズ 15が位置する姿勢で配設される。魚眼レンズ 15は、 180度あるいはそれ以上 (約 200度)の広い視野角を有する。 CMOS撮像デバイス 17の受光面 18には、魚眼レ ンズ 15により集光された被写体光による像が結像する。
[0040] 図 4は、 CMOS撮像デバイス 17の受光面 18に結像する像の一例を示す説明図で ある。図 4に示すように、魚眼レンズ 15により集光される光は、受光面 18の中央部分 に投射される。受光面 18の中央部分には、この光により、円形の輪郭を有する円形 画像が結像する。円形画像は、魚眼レンズ 15を通過する被写体の映像である。円形 画像の外周部分の画像は、中央部分の画像に比べて歪んで 、る。
[0041] なお、受光面 18のこの円形画像の範囲外となる周縁部(図 4において斜線を付した 部分)には、カメラユニット 8から漏れた光や回折などにより回り込んだ光などにより若 干の濃淡が生じる。周縁部の受光光量は、 0とはならず、周縁部の画素は、均一な黒 色とはならない。
[0042] CMOS撮像デバイス 17は、周期的に、この受光面 18に配列される複数の受光素 子の受光光量を読込み、受光面 18と同じ縦横比の四角形の画像の輝度分布データ を生成する。この四角形の画像の輝度分布データは、円形画像による輝度分布デー タを有する。
[0043] なお、 CMOS撮像デバイス 17に替えて、 CCD (Charge Coupled Device)を使 用してもよい。但し、 CMOS撮像デバイス 17では、受光面 18に配列される複数の受 光素子の受光光量を、一列毎に読み込むことができる。これに対して、 CCDでは、受 光素子毎に、受光光量を読み込む。そのため、 CCDは、 CMOS撮像デバイス 17に 比べて、受光を開始してから 1つの輝度分布データを生成し終えるまでに時間がか 力る傾向にある。受光素子の素子数が大きくなつた場合、動画を撮像するために所 定の撮像間隔により輝度分布データを繰り返し生成するためには、 CMOS撮像デバ イス 17が有利である。
[0044] 超小型広角カメラ装置 1は、これらの LCD11、複数の操作キー 13を有する入力デ バイス 12、 USBコネクタ 14、魚眼レンズ 15、 CMOS撮像デバイス 17の他にも、マイ ク 19、 ADコンバータ 20、位置検出手段としての GPS (Global Positioning Syst em)受信機 21、姿勢変化検出手段としてのジャイロセンサ 22、各種のデータを記憶 する記憶手段としての HDD23、マイクロコンピュータ 24などを有する。超小型広角 カメラ装置 1は、これらの制御回路 25へ給電するために、ノ ッテリ 26と、電源回路 27 とを有する。なお、これらの回路構成要素の中、たとえば魚眼レンズ 15、 CMOS撮像 デバイス 17、マイク 19、ジャイロセンサ 22などがカメラユニット 8に配設され、且つ、そ の他の回路構成要素が本体ユニット 7に配設されればよい。
[0045] マイク 19は、超小型広角カメラ装置 1の周囲の音を拾う。マイク 19は、音声などの 音信号を生成する。音信号の波形は、マイク 19が拾う音に応じて変化する。 ADコン バータ 20は、音信号をサンプリングし、音データ 55 (図 5参照)を生成する。
[0046] GPS受信機 21は、地球の衛星軌道に打ち上げられた GPS衛星からの電波を受信 する。この GPS衛星力もの電波には、電波の発信時刻や、衛星の位置情報などが含 まれる。 GPS受信機 21は、複数の GPS衛星力 の電波を受信し、周期的に、 GPS 受信機 21の位置データ 52 (図 5参照)を生成する。 GPS受信機 21は、超小型広角 カメラ装置 1に設けられている。したがって、 GPS受信機 21の位置データ 52は、超小 型広角カメラ装置 1の位置データ 52となる。
[0047] ジャイロセンサ 22は、カメラユニット 8に配設される。ジャイロセンサ 22は、カメラュ- ット 8が回転したり移動したりするとき、その回転や移動による姿勢変化の加速度を検 出する。ジャイロセンサ 22は、たとえば図 3の紙面の上下方向における加速度と、図 3の紙面と垂直な方向における加速度とを検出すればよい。つまり、ジャイロセンサ 2 2は、受光面 18の、受光面 18に垂直な 2方向への移動の加速度を検出すればよい 。ジャイロセンサ 22は、周期的に、検出した加速度の値を有する加速度データ 53 (図 5参照)を生成する。
[0048] ノ ッテリ 26は、電気を蓄電する。電源回路 27は、ノ ッテリ 26あるいは USBケープ ル 3の電源用の配線から供給される電力を、超小型広角カメラ装置 1の各構成要素 へ直流電圧により供給する。
[0049] マイクロコンピュータ 24は、 IZO (入出力)ポート 31、タイマ 32、 CPU (中央処理装 置) 33、 RAM (ランダムアクセスメモリ) 34、 EEPROM (Electronically Erasable and Programmable Read Only Memory) 35、およびこれらを接続するシス テムバス 36などを有する。
[0050] なお、この実施の形態 1の超小型広角カメラ装置 1は、 1つのマイクロコンピュータを 有する。この他にもたとえば、超小型広角カメラ装置 1は、複数のマイクロコンピュータ を有するものであってもよい。超小型広角カメラ装置 1は、具体的にはたとえば、色変 換を実行するカスタム IC (Integrated Circuit)、表示静止画データを生成する DS P (Digital Signal Processor)、およびそれ以外の処理を実行する ASIC (Appli cation Specific IC)などの複数のマイクロコンピュータを有するものであってもよ い。
[0051] マイクロコンピュータ 24の I/Oポート 31には、 CMOS撮像デバイス 17、 ADコンパ ータ 20、 LCD11、入力デバイス 12、 USBコネクタ 14、 GPS受信機 21、ジャイロセン サ 22、 HDD23などの周辺デバイスが接続される。 I/Oポート 31は、システムバス 3 6を介して CPU33などカゝら供給されるデータを周辺デバイスへ供給したり、周辺デバ イス力も供給されるデータを、システムバス 36を介して CPU33などへ供給したりする
[0052] タイマ 32は、時間を計測する。なお、タイマ 32が計測する時間には、たとえば時刻 などの絶対的な時間や、所定のタイミング力もの経過時間などがある。
[0053] EEPROM35は、超小型広角カメラ装置 1を制御する制御プログラム 37を記憶する 。 CPUは、 EEPROM35に記憶される制御プログラム 37を RAM34に読み込んで実 行する。これにより、マイクロコンピュータ 24には、撮像時には、図 5に示すように、色 変換処理部 41、カメラ保存処理部 42、付加手段としての JPEGエンジン 43、切出表 示画像生成手段としての表示画像生成部 44などが実現される。図 5は、図 1の超小 型広角カメラ装置 1に撮像時に実現される機能を示すブロック図である。また、後述 する動画表示時には、マイクロコンピュータには、図 8に示すように、 JPEGエンジン 4 3、表示画像生成部 44、デバイス通信部 45などが実現される。
[0054] 色変換処理部 41は、輝度分布データから、撮像静止画データ 51を生成する。色 変換処理部 41は、輝度分布データの画像の中の所定の円形範囲内の画素の輝度 データを、それに対応する色データへ変換し、その所定の円形範囲外の画素に、所 定の単色 (たとえば黒色)の色データを割り付ける。なお、所定の円形範囲は、輝度 分布データの画像中の円形画像の範囲と一致して!/ヽても、その円形画像より若干大 きかったり、小さかったりしていてもよい。
[0055] JPEGエンジン 43は、撮像静止画データ 51を JPEG方式で圧縮し、圧縮静止画デ ータを生成する。 JPEG方式では、たとえば、まず、圧縮対象の画像を、所定の画素 数 (たとえば X画素)毎のブロック単位で離散コサイン変換 (DCT)処理および量子 化処理することで、画像のブロック単位での空間周波数成分を得る。画像のブロック 単位での空間周波数成分は、ブロック単位の直流成分と、ブロック単位の複数の交 流成分とで構成される。次に、 JPEG方式では、画像の周波数成分毎のエントロピー 符号化処理をして、画像のデータ量を減らす。なお、エントロピー符号ィ匕処理におい て、画像の直流成分は、ハフマン符号ィ匕などの予測符号ィ匕により符号ィ匕し、画像の 各交流成分は、算術符号ィ匕などのランレングス符号ィ匕により符号ィ匕する。また、 JPE Gエンジン 43は、圧縮静止画データに、ヘッダデータを付カ卩し、 JPEGデータ 54を生 成する。
[0056] なお、 JPEGエンジン 43は、以上の圧縮処理を逆順に実行し、伸長処理をすること もできる。 JPEGエンジン 43が以上の圧縮処理を逆順に実行すると、 JPEG方式で圧 縮された圧縮静止画データ (JPEGデータ 54)から、撮像静止画データ 51あるいは 撮像静止画データ 51と略同画質の伸長静止画データを得ることができる。
[0057] カメラ保存処理部 42は、色変換処理部 41により生成される撮像静止画データ 51、 JPEGエンジン 43により生成される圧縮静止画データ (JPEGデータ 54)、伸長静止 画データなどを、 HDD23に保存する。
[0058] 表示画像生成部 44は、 HDD23などから、圧縮されて ヽな 、静止画データ(たとえ ば撮像静止画データ 51、伸長静止画データなど)を取得し、その取得した静止画デ 一タカ LCD11などの表示デバイスに表示するための表示静止画データを生成す る。表示画像生成部 44は、たとえば各種のピクセル数 (画素数)の静止画データから 、表示静止画データを表示させる表示デバイスの解像度の画像の表示静止画デー タを生成する。なお、表示画像生成部 44は、たとえば各種のピクセル数 (画素数)の 静止画データから、表示デバイスの一部に表示する表示静止画データなどを生成す ることができるものであってもよ!/、。
[0059] 図 6は、表示画像生成部 44が生成する表示静止画データにより、表示デバイスが 表示する表示画面の例を示す図である。図 6 (A)は、超小型広角カメラ装置 1が撮像 する撮像静止画データ 51の画像を表示する広角画面の例である。図 6 (B)は、図 6 ( A)中の中央の実線枠の範囲内を切出した後、その切出した画像を拡大処理した切 出し画面の例である。以下において、図 6 (A)中の実線枠を切出しリング 61とよぶ。 図 6 (C)は、図 6 (B)の切出し画面と同じ切出し画像の左上隅に、画素を間引くことで 縮小した広角画面を割り付けた二重画面の例である。表示画像生成部 44は、これら の画面に表示する表示静止画データを生成する。
[0060] 図 7は、図 1の超小型広角カメラ装置 1による撮像動作の流れを示すフローチャート である。超小型広角カメラ装置 1を用いて撮像するとき、超小型広角カメラ装置 1の力 メラユニット 8は、自動車のダッシュボード(dashboard)の上に前向きに設置される。 本体ユニット 7は、自動車のグローブボックス(glove box)内に収納される。この他に もたとえば、カメラユニット 8を人の額に前向きに装着し、本体ユニット 7を、胸ポケット やベルトに装着するようにしてもょ 、。
[0061] 本体ユニット 7の操作キー 13が操作されて、入力デバイス 12が録画開始の入力デ ータを生成すると、色変換処理部 41、カメラ保存処理部 42、 JPEGエンジン 43、表示 画像生成部 44などは、それぞれの動作を開始する。
[0062] 色変換処理部 41は、 CMOS撮像デバイス 17から輝度分布データを取得する (ス テツプ ST1)。色変換処理部 41は、取得した輝度分布データの画像の中の所定の円 形範囲内の画素の輝度データをそれに対応する色データへ変換し、その所定の円 形範囲外の画素に所定の単色の色データを割り付け、撮像静止画データ 51を生成 する (ステップ ST2)。色変換処理部 41は、生成した撮像静止画データ 51をカメラ保 存処理部 42へ供給する。 [0063] カメラ保存処理部 42には、この撮像静止画データ 51のほかにも、 ADコンバータ 2 0からの音データ 55、 GPS受信機 21からの位置データ 52、ジャイロセンサ 22からの 加速度データ 53が供給される。カメラ保存処理部 42は、供給されるこれらのデータ を、生データとして HDD23に保存する(ステップ ST3)。
[0064] HDD23に新たな撮像静止画データ 51が保存されると、たとえばカメラ保存処理部 42からの通知に基づいて、 JPEGエンジン 43は、 HDD23に新たに保存された撮像 静止画データ 51の圧縮処理を開始する。 JPEGエンジン 43は、撮像静止画データ 5 1を JPEG方式で圧縮し、 JPEGデータ 54を生成する(ステップ ST4)。
[0065] また、 JPEGエンジン 43は、 HDD23に保存されている加速度データ 53を積分し、 1つ前の撮像静止画データ 51の撮像タイミングからこの撮像静止画データ 51の撮像 タイミングまでの期間における受光面 18の、受光面 18に垂直な 2方向への移動量を 演算する。 JPEGエンジン 43は、生成した 2方向への移動量による変位データを、 JP EGデータ 54にヘッダデータとして付カ卩する。また、 JPEGエンジン 43は、 HDD23に 保存されて 、る最新の位置データ 52を、 JPEGデータ 54にヘッダデータとして付カロ する。 JPEGエンジン 43は、最新の位置データ 52と変位データとが付加され PEG データ 54を、 HDD23に保存する(ステップ ST5)。
[0066] CMOS撮像デバイス 17は、所定の撮像周期で輝度分布データを生成する。超小 型広角カメラ装置 1は、輝度分布データが生成される度に、図 7の撮像動作を実行す る。これにより、超小型広角カメラ装置 1の HDD23には、 CMOS撮像デバイス 17に より生成された輝度分布データに基づ PEGデータ 54が蓄積する。超小型広角力 メラ装置 1の HDD23には、複数の JPEGデータ 54で構成される蓄積動画データ 56 が生成される。 HDD23の蓄積動画データ 56は、 JPEGエンジン 43が新し!/、JPEG データ 54を生成する度にそのデータが追加されることで更新される。また、 HDD23 には、音データ 55が蓄積されることで、蓄積音データ 57が生成される。
[0067] また、図 7の処理とは別に、撮像時に、表示画像生成部 44は、 HDD23など力も撮 像静止画データ 51を取得する。表示画像生成部 44は、取得した静止画データから 、超小型広角カメラ装置 1の LCD 11に表示するための表示静止画データを生成す る。表示画像生成部 44は、たとえば静止画の解像度を変換し、円形画像の全体を表 示する広角画面を、超小型広角カメラ装置 1の LCD 11に表示するための表示静止 画データを生成する。表示画像生成部 44は、生成した表示静止画データを、超小型 広角カメラ装置 1の LCD11へ供給する。超小型広角カメラ装置 1の LCD11は、供給 された表示静止画データの画像を表示する。これにより、超小型広角カメラ装置 1の 使用者は、カメラユニット 8の動画撮像開始時などにおける撮像アングル力 所定の アングルとなっているか否かを確認することができる。
[0068] 以上の撮像動作により、図 5に示すように、超小型広角カメラ装置 1の HDD23には 、撮像静止画データ 51などの生データ、複数の JPEGデータ 54からなる蓄積動画デ ータ 56、複数の音データ 55からなる蓄積音データ 57などが保存される。
[0069] 図 8は、本発明の実施の形態 1に係る動画表示システム 4を示すブロック図である。
動画表示システム 4は、図 1の超小型広角カメラ装置 1と、パーソナルコンピュータ 2と 、を有する。動画表示システム 4において、超小型広角カメラ装置 1と、パーソナルコ ンピュータ 2とは、 USBケーブル 3により接続されている。
[0070] USBケーブル 3によりパーソナルコンピュータ 2に接続されると、超小型広角カメラ 装置 1は動画表示モードとなり、超小型広角カメラ装置 1には、 JPEGエンジン 43、表 示画像生成部 44、デバイス通信部 45などが実現される。 JPEGエンジン 43および表 示画像生成部 44は、図 5の撮像時におけるものと同じである。
[0071] デバイス通信部 45は、 USBコネクタ 14を用いて、 USB規格に基づくデータ通信を 実行する。デバイス通信部 45は、パーソナルコンピュータ 2の後述するホスト通信部 8 1との間で通信データを送受する。デバイス通信部 45は、たとえば SIC (スティルィメ ージクラス)や MSC (マスストレージクラス)などのクラス処理部 46を有する。クラス処 理部 46は、クラスに応じたエンドポイントなどの各種の通信バッファを有する。クラス 処理部 46は、デバイス通信部 45により通信バッファに通信データが記録されると、そ の通信データをホスト通信部 81へ送信する。また、クラス処理部 46は、ホスト通信部 81から通信データを受信すると、受信した通信データを通信バッファに保存し、デバ イス通信部 45に通知する。
[0072] パーソナルコンピュータ 2は、キーボードやポインティングデバイスなどの入力デバ イス 71、表示手段としての大型の LCD72、 USBコネクタ 73、 HDD74、マイクロコン ピュータ 75などを有する。これら入力デバイス 71、大型の LCD72、 USBコネクタ 73 、 HDD74などの周辺デバイスは、マイクロコンピュータ 75の図示外の IZOポートに 接続される。マイクロコンピュータ 75の図示外の CPUは、 HDD74に記憶される図示 外のクライアントプログラムを図示外の RAMに読み込んで実行する。これにより、マイ クロコンピュータ 75には、図 8に示すように、ホスト通信部 81、 PC表示制御部 82、 P C保存処理部 83などが実現される。また、 USBコネクタ 73の電源用の配線には、給 電回路 76が接続される。給電回路 76は、 USBケーブル 3を通じて、超小型広角カメ ラ装置 1の電源回路 27へ給電する。
[0073] ホスト通信部 81は、 USBコネクタ 73を用いて、デバイス通信部 45との間で通信デ ータを送受する。ホスト通信部 81は、たとえば SICや MSCなどのクラス処理部 84を 有する。
[0074] PC保存処理部 83は、ホスト通信部 81が受信する表示静止画データなどの各種の 通信データを、受信データ 91としてパーソナルコンピュータ 2の HDD 74へ保存する
[0075] PC表示制御部 82は、パーソナルコンピュータ 2の HDD74に記憶される表示静止 画データを、大型の LCD72へ供給する。これにより、パーソナルコンピュータ 2の LC D72には、表示静止画データによる画像が表示される。
[0076] なお、超小型広角カメラ装置 1のマイクロコンピュータ 24の EEPROM35に記憶さ れる制御プログラム 37や、パーソナルコンピュータ 2の HDD74に記憶される図示外 のクライアントプログラムは、これらの装置の出荷前にこれらの記憶デバイスとなる EE PROM35や HDDD74に記憶されているものであっても、出荷後にインストールされ てこれらの記憶デバイス 35, 74に記憶されているものであってもよい。出荷後にイン ストールするプログラムやデータは、たとえば図示外の CD— ROMなどのコンビユー タ読取可能な記録媒体に記憶されて 、たものであっても、図示外のインターネットな どの通信媒体を介して取得したものであってもよ 、。
[0077] また、制御プログラム 37やクライアントプログラムの一部力 出荷後にこれらの記憶 デバイスとなる EEPROM35や HDDD74にインストールされて!/、てもよ!/ヽ。パーソナ ルコンピュータ 2の HDD74に記憶されるクライアントプログラムは、オペレーティング システムプログラムと、アプリケーションプログラムとの糸且合せなどとして記憶されて ヽ てもよい。さらに、クライアントプログラムは、オペレーティングシステムプログラムと、ブ ラウザ(閲覧)プログラムと、そのブラウザプログラムの一部として動作するプラグイン プログラムとの組合せなどとして記憶されていてもよい。そして、たとえばブラウザプロ グラムやプラグインプログラムなどは、パーソナルコンピュータ 2の出荷後に、ォペレ 一ティングシステムプログラムとともにパーソナルコンピュータ 2においてクライアントプ ログラムを構成するためにインストールされてもよ!、。
[0078] 次に、以上の構成を有する動画表示システム 4の動作を説明する。
[0079] 図 9は、図 8の動画表示システム 4における再生による表示動作の流れを示すフロ 一チャートである。図 10は、再生による表示動作において、超小型広角カメラ装置 1 の表示画像生成部 44が実行する処理の流れを示すフローチャートである。
[0080] 超小型広角カメラ装置 1が USBケーブル 3によりパーソナルコンピュータ 2に接続さ れると、超小型広角カメラ装置 1の JPEGエンジン 43は、 HDD23に記憶される蓄積 動画データ 56の最初の JPEGデータ 54を読み込む。 JPEGエンジン 43は、読み込 ん^ [PEGデータ 54を伸長し、伸長静止画データを生成する。伸長静止画データは 、撮像静止画データ 51と同様に、画像の画素毎の、複数の画素データで構成される データである。 JPEGエンジン 43は、生成した伸長静止画データを HDD23などに保 存する。
[0081] JPEGエンジン 43により最初の伸長静止画データが生成されると、超小型広角カメ ラ装置 1の表示画像生成部 44は、図 10に示すように、最初の表示静止画データの 生成処理を開始する (ステップ ST31)。表示画像生成部 44は、その最初の伸長静 止画データを HDD23など力 読込み、その読み込んだ静止画データから表示デバ イスに表示するための表示静止画データを生成する。表示画像生成部 44は、図 6 ( A)の広角画面に表示する表示静止画データを生成する(図 9のステップ ST11)。表 示画像生成部 44は、生成した広角画面に表示する表示静止画データを、デバイス 通信部 45へ供給する。
[0082] 超小型広角カメラ装置 1のデバイス通信部 45は、表示静止画データが供給される と、それをパーソナルコンピュータ 2のホスト通信部 81へ送信する(図 9のステップ ST 12)。デバイス通信部 45は、具体的には、そのクラス処理部 46により生成される通信 バッファに表示静止画データを格納し、ホスト通信部 81へ送信する。表示静止画デ ータは、デバイス通信部 45の通信バッファから、デバイス通信部 45の USBコネクタ 1 4、 USBケーブル 3、ホスト通信部 81の USBコネクタ 73を介して、ホスト通信部 81の 通信バッファへ送信される。ホスト通信部 81は、その通信バッファに受信した表示静 止画データを、 PC保存処理部 83へ供給する。以上の処理により、表示画像生成部 44が生成した広角画面に表示する表示静止画データは、パーソナルコンピュータ 2 の PC保存処理部 83へ送信される。
[0083] パーソナルコンピュータ 2の PC保存処理部 83は、表示画像生成部 44から受信した 表示静止画データを、受信データ 91としてパーソナルコンピュータ 2の HDD 74に保 存する。これにより、パーソナルコンピュータ 2の HDD74には、蓄積動画データ 56の 最初の JPEGデータ 54に基づく表示静止画データが保存される。
[0084] パーソナルコンピュータ 2の HDD74に受信データ 91として表示静止画データが保 存されると、 PC表示制御部 82は、パーソナルコンピュータ 2の HDD74から表示静 止画データを読込み、パーソナルコンピュータ 2の大型の LCD72へ表示データとし て供給する。これにより、パーソナルコンピュータ 2の大型の LCD72には、 PC表示制 御部 82が生成した表示指定コマンドに応じた画像が表示される。ノ一ソナルコンビュ ータ 2の大型の LCD72には、図 6 (A)に示されるような円形画像の周囲が黒色に塗 りつぶされた広角画面が表示される。
[0085] 表示画像生成部 44は、この再生による表示動作において、図 10に示す処理を繰り 返し実行する。表示画像生成部 44は、最初の広角画面の表示静止画データを生成 した (ステップ ST31)後、表示切替のための表示指定コマンドの受信 (ステップ ST32 )と、動画表示周期の経過待ち状態 (ステップ ST33)となる。
[0086] その一方で、パーソナルコンピュータ 2の PC表示制御部 82は、動画表示システム 4 のユーザによる操作により入力デバイス 71が生成する入力データに基づいて、広角 画面において切出しリング 61の位置やサイズを調整する。ユーザは、たとえば図 6 ( A)に示すように、切出しリング 61を広角画面の中央に設定する。 PC表示制御部 82 は、入力デバイス 71からの入力データに基づいて、この切出しリング 61内の画像を 切出して動画表示する表示指定コマンドを生成する(図 9のステップ ST13)。
[0087] PC表示制御部 82は、生成した表示指定コマンドを、ホスト通信部 81へ供給する。
ホスト通信部 81は、供給された表示指定コマンドを、パーソナルコンピュータ 2の US Bコネクタ 73、 USBケーブル 3、超小型広角カメラ装置 1の USBコネクタ 14を介して 、デバイス通信部 45へ送信する(図 9のステップ ST14)。
[0088] デバイス通信部 45は、受信した表示指定コマンドを、表示画像生成部 44へ供給す る。広角画面の中央の画像を切出して動画表示する表示指定コマンドが供給される と、表示画像生成部 44は、図 10のステップ ST32において表示切替の指示があった と判断し、現在表示している JPEGデータ 54から、このコマンドによる切替指示にした がった新たな表示静止画データを生成する(ステップ 34、図 9のステップ ST15)。
[0089] 具体的には、表示画像生成部 44は、 HDD23など力 伸長静止画データを読込み 、読み込んだ伸長静止画データの画像の、切出しリング 61の位置およびサイズに応 じた範囲を切出し、切出し画像の輪郭が所定のアスペクト比および解像度の四角形 の画像となるように画像の外形補正処理や歪み補正処理 (たとえば歪曲収差の補正 処理)など実行し、切出し画面の表示静止画データを生成する。表示画像生成部 44 は、パーソナルコンピュータ 2の大型の LCD72に表示する所定のサイズに合うように 切出した画像のサイズに応じた拡大倍率で拡大し、その拡大処理された切出し画面 の表示静止画データを生成する。
[0090] 表示画像生成部 44は、生成した切出し画面の表示静止画データを、デバイス通信 部 45に送信させる(図 9のステップ ST16)。これにより、パーソナルコンピュータ 2の HDD74には、切出し画面の表示静止画データが保存される。また、パーソナルコン ピュータ 2の PC表示制御部 82は、パーソナルコンピュータ 2の LCD72に、表示静止 画データによる画像を表示させる(図 9のステップ ST17)。これにより、パーソナルコ ンピュータ 2の LCD72には、ユーザが切出しリング 61により指定した範囲の画像が、 拡大されて表示される。パーソナルコンピュータ 2の LCD72には、図 6 (B)に示すよう な切出し画面が表示される。
[0091] また、上述した表示指定コマンドなどにより動画表示の指示を受信する(図 10のス テツプ ST33で Yes)と、表示画像生成部 44は、その後、蓄積動画データ 56の 2つ目 以降の JPEGデータ 54による切出し画像の表示静止画データの生成処理を実行す る(図 10のステップ ST35および ST36、図 9のステップ ST18, ST21)。
[0092] 具体的には、 JPEGエンジン 43は、 HDD23に記憶される蓄積動画データ 56から、 撮像順にしたがって、最後に伸長し^ JPEGデータ 54の次の JPEGデータ 54を読み 込む。 JPEGエンジン 43は、読み込ん^ [PEGデータ 54を伸長し、伸長静止画デー タを生成する。
[0093] JPEGエンジン 43により伸長静止画データが生成されると、表示画像生成部 44は、 まず、その伸長され^ JPEGデータ 54のヘッダデータを HDD23から読込み、変位デ ータを取得する。表示画像生成部 44は、その変位データにより、前回切出し PEG データ 54の撮像タイミングから、新たに切出しをする JPEGデータ 54の撮像タイミン グまでにおける撮像アングルの変化量を特定する(図 10のステップ ST35)。
[0094] 撮像アングルの変化量を特定した後、表示画像生成部 44は、伸長され^ JPEGデ ータ 54による画像から、切出しリング 61の範囲内の画像を切出し、画像の外形補正 処理や歪み補正処理をし、切出し画面の表示静止画データを生成する(図 10のステ ップ ST36)。なお、このとき、表示画像生成部 44は、撮像アングルの変化量を相殺 する向きで且つ撮像アングルの変化量と同じ移動量で、切出しリング 61の位置を移 動し、切出しリング 61の範囲内の画像を切出す。
[0095] 図 11は、表示画像生成部 44による動画の 2つ目以降の切出し処理の説明図であ る。図 11の左上の画像は、最初の JPEGデータ 54による広角画像である。図 11の右 上の画像は、その左上の最初の JPEGデータ 54の静止画力も切出された切出し画 像である。図 11の左下の画像は、 2つ目の JPEGデータ 54による広角画像である。 図 11の右下の画像は、その右上の 2つ目の JPEGデータ 54の静止画から切出され た切出し画像である。
[0096] 図 11の左側の 2つの広角画像に示すように、撮影アングルが左上の撮像アングル から右方向へ移動すると、その次の左下の広角画像に示すように、円形画像内の被 写体は、左側へ移動する。 2つ目の広角画像の JPEGデータ 54には、この被写体の ずれ量とは逆向きとなる撮影アングルの変位量としての変位データが保存される。
[0097] 表示画像生成部 44は、図 11の左下の広角画像において示すように、変位データ により特定される撮像アングルの変位量を打ち消すように、切出しリング 61の位置を 移動する。具体的には、表示画像生成部 44は、変位データにより特定される撮像ァ ンダルの変化量を相殺する向きで、切出しリング 61の位置を左方向へ移動する。そ して、表示画像生成部 44は、相殺する位置にある切出しリング 61の範囲内の画像を 切出す。これにより、連続する切出し画像内の被写体は、略停止する。図 11の右上 の切出し画像と右下の切出し画像とを比較すれば明らかなように、撮像アングルの変 化による切出し画像内の被写体の動きは、連続する切出し画像において相殺され、 停止状態となる。
[0098] 動画の 2つ目以降の新たな切出し画面の表示静止画データを生成すると、表示画 像生成部 44は、生成した表示静止画データを、デバイス通信部 45に送信させる(図 9のステップ ST19, ST22)。これにより、パーソナルコンピュータ 2の HDD74には、 受信データ 91として、動画の 2つ目以降の新たな切出し画面の表示静止画データが 保存される。また、パーソナルコンピュータ 2の PC表示制御部 82は、パーソナルコン ピュータ 2の LCD72に、動画の 2つ目以降の新たな表示静止画データによる画像を 表示させる(図 9のステップ ST20, ST23)。これにより、パーソナルコンピュータ 2の L CD72には、ユーザが切出しリング 61により指定した範囲の画像を、拡大表示する切 出し画面による動画が表示される。
[0099] 以上のように、この実施の形態 1の超小型広角カメラ装置 1では、 CMOS撮像デバ イス 17が、魚眼レンズ 15により撮像された円形画像を含む四角形の静止画の撮像 静止画データ 51を生成する。 JPEGエンジン 43は、 CMOS撮像デバイス 17により撮 像された撮像静止画データ 51を圧縮した圧縮静止画データに、ジャイロセンサ 22の 検出によるアングル情報 (撮像アングルの変化量の情報)などを付加して JPEGデー タ 54を生成する。 HDD23は、この JPEGデータ 54を蓄積記憶する。
[0100] また、この超小型広角カメラ装置 1とパーソナルコンピュータ 2とを USBケーブル 3 により接続することで構成される動画表示システム 4では、超小型広角カメラ装置 1の 表示画像生成部 44が、 HDD23に記憶される JPEGデータ 54の画像の一部を撮像 順にしたがって切出し、複数の切出し静止画の表示静止画データを生成する。また、 パーソナルコンピュータ 2の LCD72は、表示画像生成部 44により生成される複数の 表示静止画データによる複数の切出し静止画を順番に表示する。
[0101] 特に、超小型広角カメラ装置 1の表示画像生成部 44は、 2つ目以降の静止画の切 出しにおいて、前回切出した静止画の撮像アングルからの変化量を、その切出し対 象の JPEGデータ 54に付加されたアングル情報に基づ 、て特定し、その撮像アング ルの変化量を相殺するように、画像の切出し範囲をずらして静止画の一部を切出す
[0102] したがって、この実施の形態 1では、超小型広角カメラ装置 1により所望の方向を特 に意識して撮像しなくとも、動画表示システム 4は、最初の切出し画像を基準とした所 望の方向の動画を再生して表示することができる。
[0103] なお、動画を切出している最中に、たとえば視線方向を切り替えるコマンドが発せら れた場合、表示画像生成部 44は、動画再生を中止し、画面を切り替える。その後に 動画再生が指定された場合、表示画像生成部 44は、その切替後のアングルでの動 画再生を開始する。これにより、ユーザは、動画と静止画とをシームレスに再生するこ とができる。再生時に、任意の位置で任意の方向へ動画の画面を切り替えることがで きる。
[0104] 実施の形態 2.
図 12は、本発明の実施の形態 2に係る動画表示システム 4Aを示すブロック図であ る。動画表示システム 4Aの超小型広角カメラ装置 1は、切出表示画像生成手段とし ての表示画像生成部 101と、経路データ生成部 102とを有する。また、動画表示シス テム 4Aのパーソナルコンピュータ 2は、 HDD74に記憶される地図データ 103と、撮 像経路表示指示手段および被写体位置特定手段としての PC表示制御部 104とを 有する。
[0105] 表示画像生成部 101は、 HDD23など力も圧縮されていない静止画データ(たとえ ば撮像静止画データ 51、伸長静止画データなど)を取得し、その取得した静止画デ 一タカ LCD72などの表示デバイスに表示するための表示静止画データを生成す る。表示画像生成部 101は、切出し画面に表示する表示静止画データを生成する場 合、撮像アングルの変化量とともに、被写体に対する撮像位置の相対アングルの変 化量を相殺するように切出しリングによる切出し範囲を移動する。 [0106] 経路データ生成部 102は、 HDD23に蓄積動画データ 56として記憶されている複 数の JPEGデータ 54のヘッダから、複数の位置データ 52を読み込む。経路データ生 成部 102は、複数の位置データ 52からなる経路データを生成する。
[0107] 地図データ 103は、所定の地域の道路などが描画された表示地図データと、その 地図内の各地点の緯度経度データとを有する。
[0108] PC表示制御部 104は、パーソナルコンピュータ 2の LCD72に、表示画像生成部 1 01が生成する表示静止画データによる撮像表示画面と、地図データ 103の表示地 図データを表示する地図表示画面とを表示させる。なお、撮像表示画面と、地図表 示画面とは、 1つの画面内に割り付けられて表示されても、別々の画面により表示さ れてもよい。
[0109] 実施の形態 2の動画表示システム 4Aにおいて、上述した以外の構成要素は、実施 の形態 1の同名の構成要素と同じ機能を奏するものであり、同一の符号を付してその 説明を省略する。
[0110] 次に、以上の構成を有する動画表示システム 4Aの動作を説明する。
[0111] 超小型広角カメラ装置 1が USBケーブル 3によりパーソナルコンピュータ 2に接続さ れると、パーソナルコンピュータ 2の PC表示制御部 104は、撮像経路データの送信 要求を生成し、ホスト通信部 81へ供給する。
[0112] パーソナルコンピュータ 2のホスト通信部 81は、撮像経路データの送信要求を、超 小型広角カメラ装置 1のデバイス通信部 45へ送信する。撮像経路データの送信要求 は、具体的には、パーソナルコンピュータ 2の USBコネクタ 73、 USBケーブル 3およ び超小型広角カメラ装置 1の USBコネクタ 14を介して、デバイス通信部 45へ送信さ れる。
[0113] デバイス通信部 45は、受信した撮像経路データの送信要求を、経路データ生成部 102へ供給する。撮像経路データの送信要求が供給されると、経路データ生成部 10 2は、 HDD23に蓄積動画データ 56として記憶されている複数の JPEGデータ 54の ヘッダデータを読み込む。そして、経路データ生成部 102は、読み込んだヘッダデ ータから位置データ 52を抽出し、複数の位置データ 52を JPEGデータ 54の撮像順 に並べた経路データを生成する。 [0114] 経路データ生成部 102は、生成した経路データを、デバイス通信部 45へ供給する 。デバイス通信部 45は、経路データを、パーソナルコンピュータ 2のホスト通信部 81 へ送信する。ホスト通信部 81は、受信した経路データを PC表示制御部 104へ供給 する。
[0115] 超小型広角カメラ装置 1の経路データ生成部 102から経路データを受信すると、パ 一ソナルコンピュータ 2の PC表示制御部 104は、 HDD74から地図データ 103を読 込み、受信した経路データの各位置データ 52を、緯度経度の対応関係に基づいて 地図上にマッピングし (割り付け)、表示データを生成する。 PC表示制御部 104は、 生成した表示データをパーソナルコンピュータ 2の LCD72へ供給する。パーソナル コンピュータ 2の LCD72は、地図上に撮像経路が割り付けられた地図表示画面を表 示する。
[0116] 図 13は、図 12中のパーソナルコンピュータ 2の LCD72に表示される地図表示画 面の一例を示す図である。図 13の地図表示画面には、画面の中心などで交差する 複数の道路と、画面右上に位置する山とが表示される。また、図 13の地図表示画面 には、画面中央下端から、画面の中心の交差点に向力う撮像経路 110が表示される
[0117] また、撮像経路 110上には、経路データ生成部 102から取得した経路データの各 位置データ 52の地点力 黒丸表示される。図 13では、 4つの位置データ 52の地点 が黒丸表示されている。図 13の地図表示画面において、一番下の黒丸地点 111が 動画の最初の撮像静止画の撮像地点であり、その上の黒丸地点 112が、 2つ目の撮 像静止画の撮像地点である。
[0118] PC表示制御部 104は、この図 13の地図表示画面が LCD72に表示されている状 態で、入力デバイス 71から所定の入力データが供給されると、表示する地図上の所 定の地点を被写体の位置として特定する。 PC表示制御部 104は、たとえば図 13中 の山の頂上付近( X印)を、画像表示する被写体の位置 114として特定する。
[0119] PC表示制御部 104は、特定した被写体の位置 114の情報を、ホスト通信部 81へ 供給する。ホスト通信部 81は、被写体の位置 114の情報を、超小型広角カメラ装置 1 のデバイス通信部 45へ送信する。デバイス通信部 45は、表示画像生成部 101へ、 被写体の位置 114の情報を供給する。表示画像生成部 101は、供給された被写体 の位置 114の情報を、 HDD23などに保存する。
[0120] 以上のような処理により被写体の位置 114の情報が超小型広角カメラ装置 1の表示 画像生成部 101へ供給される。表示画像生成部 101は、この供給と関係なぐ動画 を表示するための表示データの生成処理を実行する。
[0121] 図 14は、図 12中の表示画像生成部 101が、再生による表示動作において実行す る処理の流れを示すフローチャートである。
[0122] 表示画像生成部 101は、まず、 HDD23などから、蓄積動画データ 56の最初の JP EGデータ 54を JPEGエンジン 43により伸長した伸長静止画データを読込み、その 読み込んだ伸長静止画データから、表示デバイスに広角画面を表示するための最 初の表示静止画データを生成する (ステップ ST31)。表示画像生成部 101は、生成 した表示静止画データを、デバイス通信部 45へ供給し、パーソナルコンピュータ 2へ 送信させる。これにより、パーソナルコンピュータ 2の HDD74には、受信データ 91と して、広角画面を表示するための表示静止画データが記憶される。
[0123] パーソナルコンピュータ 2の HDD74に受信データ 91として表示静止画データが保 存されると、 PC表示制御部 104は、パーソナルコンピュータ 2の HDD74から表示静 止画データを読込み、パーソナルコンピュータ 2の大型の LCD72へ表示データとし て供給する。これにより、パーソナルコンピュータ 2の大型の LCD72には、円形画像 の周囲が黒色に塗りつぶされた広角画面による撮像表示画面が表示される。
[0124] 図 15は、パーソナルコンピュータ 2の大型の LCD72に表示可能な 4つの画面を示 す図である。図 15の左上の画面は、蓄積動画データ 56の最初の JPEGデータ 54に 基づぐ広角画面である。図 15の右上の画面は、この蓄積動画データ 56の最初の J PEGデータ 54の画像から、切出しリング 61により切出された後、歪み補正や拡大処 理が施された切出し画面である。図 15の左下の画面は、蓄積動画データ 56の 2番 目の JPEGデータ 54に基づぐ広角画面である。図 15の右下の画面は、この蓄積動 画データ 56の 2番目の JPEGデータ 54から、切出しリング 122により切出された後、 歪み補正や拡大処理が施された切出し画面である。なお、図 15の左上の広角画面 と左下の広角画面とを比較すれば明らかなように、図 15での最初の広角画面と、 2番 目の広角画面との間では、魚眼レンズ 15の撮像アングルは変動していない。撮像位 置のみが前進により変化している。この撮像位置の変化により、被写体である山の頂 上の位置は変化しないが、山のアングルはわずかに変化する。
[0125] パーソナルコンピュータ 2の PC表示制御部 104は、動画表示システム 4Aのユーザ による操作により入力デバイス 71が生成する入力データに基づいて、広角画面にお いて切出しリング 61の位置やサイズを調整する。ユーザは、たとえば後述する図 15 の左上の広角画面に示すように、切出しリング 61を広角画面の右側に設定する。 PC 表示制御部 104は、この切出しリング 61内の画像を切出して動画表示する表示指定 コマンドを生成し、超小型広角カメラ装置 1の表示画像生成部 101へ送信する。
[0126] 表示画像生成部 101は、この表示指定コマンドを受信すると、図 14のステップ ST3 2において表示切替の指示があつたと判断し、現在表示している蓄積動画データ 56 の最初の JPEGデータ 54の画像の一部を、このコマンドによる切替指示にしたがって 切出し、その切出し画像に基づく新たな表示静止画データを生成する (ステップ 34)
[0127] 表示画像生成部 101は、生成した切出し画面の表示静止画データを、パーソナル コンピュータ 2へ送信する。 PC表示制御部 104は、受信した表示静止画データを H DD74から読込み、パーソナルコンピュータ 2の LCD72に、切出し画面を表示させる 。これにより、パーソナルコンピュータ 2の LCD72には、たとえば図 15の右上の切出 し画面が表示される。
[0128] その後、表示画像生成部 101は、蓄積動画データ 56の 2つ目以降の JPEGデータ 54による切出し画像の表示静止画データの生成処理を実行する (ステップ ST35、 S T41および ST42)。
[0129] 具体的には、 JPEGエンジン 43は、 HDD23に記憶される蓄積動画データ 56から、 撮像順にしたがって、最後に伸長し^ JPEGデータ 54の次の JPEGデータ 54を読み 込む。 JPEGエンジン 43は、読み込ん^ [PEGデータ 54を伸長し、伸長静止画デー タを生成する。
[0130] JPEGエンジン 43により伸長静止画データが生成されると、表示画像生成部 101は 、まず、 HDD23力ら、その伸長され^ JPEGデータ 54のヘッダデータを読込み、変 位データを取得する。表示画像生成部 101は、その変位データにより、前回切出し ^JPEGデータ 54の撮像タイミングから、新たに切出しをする JPEGデータ 54の撮像 タイミングまでにおける撮像アングルの変化量を特定する (ステップ ST35)。
[0131] 撮像アングルの変化量を特定した後、表示画像生成部 101は、 HDD23から、伸 長され^ JPEGデータ 54のヘッダデータ、 1つ前の JPEGデータ 54のヘッダデータお よび被写体の位置 114の情報を読込み、被写体に対する相対アングルの変化量を 特定する (ステップ ST41)。
[0132] 具体的にはたとえば図 13に示すように、前回の JPEGデータ 54の撮像位置が黒丸 位置 111であり、今回の JPEGデータ 54の撮像位置が黒丸位置 112であるとすると、 前回の撮像力も今回の撮像までの期間において、被写体となる位置 114に対する相 対アングルは、図 13中の Θ diffの分だけ変化する。表示画像生成部 101は、 HDD2 3から読み込んだ情報に基づ 、て被写体の位置と 2つの撮像位置とを特定し、それら 特定した位置に基づいてこの相対アングルの変動量 Θ diffを演算する。
[0133] 撮像アングルの変動量と、被写体に対する相対アングルの変動量とを特定した後、 表示画像生成部 101は、切出しリング 61に代えて切出しリング 122を生成し、伸長さ れ^ JPEGデータ 54による画像から、切出しリング 122の範囲内の画像を切出し、画 像の外形補正処理や歪み補正処理をし、切出し画面の表示静止画データを生成す る(ステップ ST42)。
[0134] このとき、表示画像生成部 101は、撮像アングルの変化量を相殺する向きで且つ 撮像アングルの変化量と同じ移動量で、切出しリング 122の位置を、前回の切出しリ ング 61の位置力 移動し、さらに、相対アングルの変化量を相殺する向きで且つ相 対アングルの変化量と同じ移動量で、切出しリング 61の位置を移動することで新たな 切出しリング 1222を生成し、その切出しリング 122の範囲内の画像を切出す。
[0135] 図 15の左下の広角画面は、蓄積動画データの二番目の JPEGデータ 54による広 角画面である。この 2番目の広角画面に対する魚眼レンズ 15自体の撮像アングルは 、図 15の左上の最初の広角画面の撮像アングルと変化していない。しかし、撮像位 置が前進することで被写体に対する撮像アングルは変化して 、る。このような場合、 表示画像生成部 101は、相対アングルの変化量を相殺する向きで且つ相対アング ルの変化量と同じ移動量で、切出しリング 122の位置を移動し、画像を切出す。
[0136] 図 15の左下の広角画面において、点線で示す切出しリング 121は、図 15の左上 の広角画面における切出しリング 61と同 Cf立置にある。被写体としての山は、図 13に ぉ ヽて撮像位置が黒丸地点 111から黒丸地点 112へと山へ近づ ヽた分だけ、画像 の外側へ移動する。表示画像生成部 101は、これに起因する相対アングルの変化量 Θ diffを相殺するように、切出しリング 121を画面の右側へ移動し、その位置の切出 しリング 122により画像を切出す。
[0137] これにより、連続する円形画像内で移動する被写体は、連続する切出し画像内で 略停止する。図 15の右上の切出し画像における被写体としての山の位置と、図 15の 右下の切出し画像における被写体としての山の位置とを比較すれば明らかなように、 相対アングルの変化による被写体の動きは、連続する切出し画像において相殺され る。しかし、山のすそ野の風景は変化する。
[0138] 以上の一連の処理 (ステップ ST35、 ST41および ST42)により動画の 2つ目以降 の新たな切出し画面の表示静止画データを生成すると、表示画像生成部 101は、生 成した表示静止画データを、パーソナルコンピュータ 2へ送信する。パーソナルコン ピュータ 2の PC表示制御部 104は、受信した動画の 2つ目以降の新たな切出し画像 の表示静止画データを HDD74から読込み、パーソナルコンピュータ 2の LCD72に 表示させる。これにより、パーソナルコンピュータ 2の LCD72には、ユーザがその位 置 114を指定した被写体を連続的に撮像する切出し画面による動画が表示される。 LCD72には、たとえば図 15の右上の、被写体を中央に写す切出し画面に続けて、 図 15の右下の、被写体を中央に写す切出し画面が表示される。
[0139] 以上のように、この実施の形態 2の超小型広角カメラ装置 1では、 CMOS撮像デバ イス 17が、魚眼レンズ 15により撮像された円形画像を含む四角形の静止画の撮像 静止画データ 51を生成する。 JPEGエンジン 43は、 CMOS撮像デバイス 17により撮 像された撮像静止画データ 51を圧縮した圧縮静止画データに、ジャイロセンサ 22の 検出によるアングル情報と GPS受信機 21による撮像位置情報とを付加して JPEGデ ータ 54を生成する。また、動画表示システム 4Aの表示画像生成部 101は、 HDD23 に記憶される JPEGデータ 54の画像の一部を撮像順にしたがって切出し、複数の表 示画像の表示静止画データを生成する。パーソナルコンピュータ 2の LCD72は、表 示画像生成部 101により生成される複数の表示静止画データによる複数の表示画 像を順番に表示する。
[0140] 特に、動画表示システム 4Aの表示画像生成部 101は、 2つ目以降の画像の切出し において、その切出し対象の JPEGデータ 54あるいはその前に切出し^ JPEGデー タ 54に付加された撮像アングルあるいはその変化量を示すアングル情報に基づ ヽ て特定される、前回切出した静止画とその切出し対象の静止画との撮像アングルの 変化量と、その切出し対象の JPEGデータ 54あるいはその前に切出し^ JPEGデー タ 54に付加された撮像位置あるいはその変化量を示す撮像位置情報に基づ ヽて特 定される、前回切出した静止画の撮像位置とその切出し対象の静止画の撮像位置と の被写体に対する相対アングルの変化量とを相殺するように、画像の切出し範囲を ずらして画像の一部を切出す。
[0141] したがって、この実施の形態 2では、超小型広角カメラ装置 1により所望の被写体を 特に意識して撮像しなくとも、すなわち所定の被写体を撮像し続けるアングルを維持 しなくても、動画表示システム 4Aは、所定の被写体を連続的に表示する動画を再生 することができる。
[0142] また、この実施の形態 2の超小型広角カメラ装置 1では、 GPS受信機 21が、衛星電 波を受信し、地上における絶対的な位置情報による位置を検出する。動画表示シス テム 4Aでは、 PC表示制御部 104が、超小型広角カメラ装置 1の HDD23に記憶さ れる複数の JPEGデータ 54の撮像位置を地図上にマッピングした画面をパーソナル コンピュータ 2の LCD72に表示させ、パーソナルコンピュータ 2の LCD72に表示さ れる地図中の位置の特定に基づいて、被写体の位置 114を特定する。そして、表示 画像生成部 101は、 PC表示制御部 104により特定された被写体の位置 114の情報 を用いて、被写体に対する相対アングルの変化量を特定する。
[0143] したがって、撮像経路がマッピングされた地図上で被写体の地図中の位置 114を 特定することで、容易に、被写体の位置 114を特定し、被写体に対する相対アングル の変化量を特定することかできる。
[0144] 上述した各実施の形態は、本発明の好適な実施の形態の例であるが、本発明は、 これに限定されるものではなぐ発明の要旨を逸脱しない範囲において種々の変形、 変更が可能である。
[0145] たとえば、上記各実施の形態では、 JPEGエンジン 43は、撮像静止画データ 51を 圧縮した圧縮静止画データに、アングル情報と撮像位置情報とを付加して ヽる。 JPE Gエンジン 43は、撮像静止画データ 51を圧縮した圧縮静止画データに、アングル情 報を付加するようにしてもよい。また、 JPEGエンジン 43は、撮像静止画データ 51を 圧縮した圧縮静止画データに、アングル情報および撮像位置情報以外の情報、たと えば撮像時刻情報などを付加するようにしてもょ ヽ。
[0146] 上記各実施の形態では、 JPEGデータ 54のヘッダデータに含まれるアングル情報 は、超小型広角カメラ装置 1に設けられたジャイロセンサ 22の検出加速度を積分して なる撮像アングルの変化量である。この他にもたとえば、アングル情報は、たとえば鉛 直方向や東西南北などを基準とした、超小型広角カメラ装置 1の絶対的な撮像アン ダル方向の情報であってもよ 、。
[0147] 上記各実施の形態では、 JPEGデータ 54のヘッダデータに含まれる撮像位置情報 は、超小型広角カメラ装置 1に設けられた GPS受信機 21による検出位置である。 GP S受信機 21は、地上における絶対的な位置を検出する。この他にもたとえば、撮像 位置情報は、超小型広角カメラ装置 1の撮像間隔における撮像位置の移動量および 移動方向などのように、超小型広角カメラ装置 1の相対的な位置情報であってもよい 。また、 GPS受信機 21に替えて、携帯電話用基地局の電波、放送電波、無線通信 電波などの衛星電波以外の電波を受信し、地上における絶対的な位置情報による 位置を検出する受信機を用いるようにしてもょ 、。
[0148] 上記実施の形態 1の表示画像生成部 44は、前回切出した静止画と新たに切出す 静止画との撮像アングルの変化量をすベて相殺するように、切出しリング 61による画 像の切出し範囲をずらしている。実施の形態 2の表示画像生成部 101は、前回切出 した静止画と新たに切出す静止画との撮像アングルの変化量と、前回切出した静止 画と新たに切出す静止画との被写体に対する相対アングルの変化量とのすべて相 殺するように、画像の切出し範囲をずらしている。この他にもたとえば、表示画像生成 部 44, 101は、撮像アングルの変化量や被写体に対する相対アングルの変化量の 中の、たとえば 90%程度などを相殺するように、画像の切出し範囲をずらすようにし てもよい。
[0149] 上記実施の形態 2では、 PC表示制御部 104は、超小型広角カメラ装置 1から取得 した撮像経路を、地図上にマッピングして表示している。この他にもたとえば、 PC表 示制御部 104は、白紙のような単色画像上に、撮像経路をマッピングして表示するよ うにしてもよい。この変形例の場合であっても、 PC表示制御部 104は、その単色画像 上の任意の地点を被写体の位置として選択し、被写体に対する相対アングルの変化 量を特定するようにすればよい。これにより、 PC表示制御部 104は、容易に被写体 の位置を特定し、被写体に対する相対アングルの変化量を特定することかできる。
[0150] 上記実施の形態 2では、 PC表示制御部 104は、超小型広角カメラ装置 1の表示画 像生成部 101に対して、切出し画像による動画の生成を指示している。この他にもた とえば、 PC表示制御部 104は、表示画像生成部 101に対して、所定の 1つの切出し 静止画の生成を要求し、その要求した静止画を地図上などに割り付けて表示するよ うにしてもよい。これにより、ユーザは、地図上の任意の位置の実際の風景を確認す ることができる。また、 PC表示制御部 104は、 GPS受信機 21が検出する現在位置の 切出し静止画の生成を要求し、その要求した静止画を地図上に割り付けて表示する ようにしてもよい。これにより、ユーザは、現在位置を容易に把握することができる。ま た、 PC表示制御部 104は、予め地図上に設定された移動経路の切出し静止画の生 成を要求し、その要求した静止画を地図上に割り付けて表示するようにしてもよい。こ れにより、予め設定された移動経路により、経路を案内することができる。ユーザは、 この移動経路を移動するとき、あるいは事前に、曲がる交差点などの実際の風景を確 認することができる。また、 PC表示制御部 104は、所定の位置から複数の方向を見 る複数の切出し静止画を要求し、表示するようにしてもよい。こけにより、マルチアン ダルにより所定の位置の風景を提供することができる。
[0151] 上記各実施の形態では、超小型広角カメラ装置 1は、魚眼レンズ 15を有する。この 超小型広角カメラ装置 1の替わりに、通常のレンズを有する超小型カメラ装置や、望 遠レンズを有する超小型カメラ装置などを使用してもよい。
[0152] 上記各実施の形態では、動画表示システム 4, 4Aは、超小型広角カメラ装置 1と、 パーソナルコンピュータ 2とを USBケーブル 3で接続した構成となっている。この他に もたえば、動画表示システム 4, 4Aは、広角カメラデバイスなどを有するパーソナルコ ンピュータ 2などの単体の装置として構成されていてもよい。また、動画表示システム 4, 4Aの超小型広角カメラ装置 1と、パーソナルコンピュータ 2とは、 USBケーブル 3 以外のたとえば LANケーブルなどの他の通信ケーブル、無線通信回線などにより接 続されていてもよい。また、超小型広角カメラ装置 1とパーソナルコンピュータ 2との間 に、それらの間での通信データを中継するサーバ装置などが介在していてもよい。 産業上の利用可能性
本発明は、動画を記録したり、再生したりする装置やシステムにおいて好適に利用 することができる。

Claims

請求の範囲
[1] 広角レンズを用いて撮像される静止画の一部を切出し、最初の表示画像の表示デ ータを生成するステップと、
上記広角レンズを用いて撮像される 2つ目以降の静止画の切出しに先立って、前 回切出した静止画の撮像タイミングカゝらその切出し対象の静止画を撮像する撮像タ イミングまでにおける撮像アングルの変化量を特定するステップと、
上記特定された撮像アングルの変化量を相殺するように 2つ目以降の静止画から の画像の切出し範囲をずらしてその静止画の一部を切出し、 2つ目以降の表示画像 の表示データを生成するステップと、
を特徴とする動画の表示方法。
[2] 広角レンズを用いて撮像される静止画の一部を切出し、所望の被写体が写る最初 の表示画像の表示データを生成するステップと、
上記広角レンズを用いて撮像される 2つ目以降の静止画の切出しに先立って、前 回切出した静止画の撮像タイミングカゝらその切出し対象の静止画を撮像する撮像タ イミングまでにおける撮像アングルの変化量と、前回切出した静止画の撮像位置とそ の切出し対象の静止画の撮像位置との上記被写体に対する相対アングルの変化量 とを特定するステップと、
上記特定された撮像アングルの変化量および相対アングルの変化量を相殺するよ うに 2つ目以降の静止画からの画像の切出し範囲をずらしてその静止画の一部を切 出し、 2つ目以降の表示画像の表示データを生成するステップと、
を特徴とする動画の表示方法。
[3] 広角レンズを用いて連続的に撮像される各静止画のデータに、それぞれの撮像ァ ングルあるいはその変化量を示すアングル情報が付加された複数の保存静止画デ ータを記憶する記憶手段と、
上記記憶手段に記憶される保存静止画データの画像の一部を撮像順にしたがつ て切出し、複数の表示画像の表示データを生成する切出表示画像生成手段と、 上記切出表示画像生成手段により生成される上記複数の表示データによる複数の 表示画像を順番に表示する表示手段と、を有し、 前記切出表示画像生成手段は、 2つ目以降の画像の切出しにおいて、その切出し 対象の保存静止画データあるいはその前に切出した保存静止画データに付加され た上記撮像アングルあるいはその変化量を示すアングル情報に基づ 、て特定される 、その切出し対象の静止画と前回切出した静止画との撮像アングルの変化量を相殺 するように、画像の切出し範囲をずらして画像の一部を切出すことを特徴とする動画 表示システム。
[4] 広角レンズを用いて連続的に撮像される各静止画のデータに、それぞれの撮像ァ ングルある!/、はその変化量を示すアングル情報と、それぞれの撮像位置あるいはそ の変化量を示す撮像位置情報とが付加された複数の保存静止画データを記憶する 記憶手段と、
上記記憶手段に記憶される保存静止画データの画像の一部を撮像順にしたがつ て切出し、所定の被写体が写る複数の表示画像の表示データを生成する切出表示 画像生成手段と、
上記切出表示画像生成手段により生成される上記複数の表示データによる複数の 表示画像を順番に表示する表示手段と、を有し、
前記切出表示画像生成手段は、 2つ目以降の画像の切出しにおいて、その切出し 対象の保存静止画データあるいはその前に切出した保存静止画データに付加され た上記撮像アングルあるいはその変化量を示すアングル情報に基づ 、て特定される 、前回切出した静止画とその切出し対象の静止画との撮像アングルの変化量と、そ の切出し対象の保存静止画データある!、はその前に切出した保存静止画データに 付加された上記撮像位置あるいはその変化量を示す撮像位置情報に基づ 、て特定 される、前回切出した静止画の撮像位置とその切出し対象の静止画の撮像位置との 上記被写体に対する相対アングルの変化量とを相殺するように、画像の切出し範囲 をずらして画像の一部を切出すことを特徴とする動画表示システム。
[5] 前記記憶手段に記憶される複数の保存静止画データの撮像位置をマッピングした 画面を前記表示手段に表示させる撮像経路表示指示手段と、
前記表示手段に表示される上記複数の撮像位置をマッピングした画面中の位置の 特定に基づいて、前記被写体の位置を特定する被写体位置特定手段と、を有し、 前記切出表示画像生成手段は、上記被写体位置特定手段により特定された被写 体の位置を用いて、前記被写体に対する相対アングルの変化量を特定すること、 を特徴とする請求項 4記載の動画表示システム。
[6] 前記記憶手段に記憶される複数の保存静止画データの撮像位置を地図上にマツ ビングした画面を前記表示手段に表示させる撮像経路表示指示手段と、
前記表示手段に表示される地図中の位置の特定に基づ!/、て、前記被写体の位置 を特定する被写体位置特定手段と、を有し、
前記切出表示画像生成手段は、上記被写体位置特定手段により特定された被写 体の位置を用いて、前記被写体に対する相対アングルの変化量を特定すること、 を特徴とする請求項 4記載の動画表示システム。
[7] 広角レンズと、
この広角レンズにより撮像された円形画像を含む四角形の画像の撮像静止画デー タを生成する撮像手段と、
上記撮像手段により撮像された撮像静止画データあるいはそれを圧縮した圧縮静 止画データに、撮像アングルあるいはその変化量を示すアングル情報を付加して保 存静止画データを生成する付加手段と、
上記付加手段により生成される複数の保存静止画データを蓄積記憶する記憶手段 と、
を有することを特徴とする広角動画撮像装置。
[8] 自身の姿勢変化を検出する姿勢変化検出手段を有し、
前記付加手段は、上記姿勢変化検出手段により検出された自身の姿勢の変化量 を、アングル情報として付加することを特徴とする請求項 7記載の広角動画撮像装置
[9] 広角レンズと、
この広角レンズにより撮像された円形画像を含む四角形の画像の撮像静止画デー タを生成する撮像手段と、
上記撮像手段により撮像された撮像静止画データあるいはそれを圧縮した圧縮静 止画データに、撮像アングルあるいはその変化量を示すアングル情報と、撮像位置 あるいはその変化量を示す撮像位置情報を付加して保存静止画データを生成する 付加手段と、
上記付加手段により生成される複数の保存静止画データを蓄積記憶する記憶手段 と、
を有することを特徴とする広角動画撮像装置。
[10] 自身の姿勢変化を検出する姿勢変化検出手段と、
自身の位置を検出する位置検出手段と、を有し、
前記付加手段は、上記姿勢変化検出手段により検出された自身の姿勢の変化量と 、上記位置検出手段により検出された自身の位置とを、アングル情報および撮像位 置情報として付加することを特徴とする請求項 9記載の広角動画撮像装置。
[11] 前記位置検出手段は、衛星電波、携帯電話用基地局の電波、放送電波、無線通 信電波などの電波を受信し、地上における絶対的な位置情報による位置を検出する ことを特徴とする請求項 10記載の広角動画撮像装置。
PCT/JP2007/058806 2006-05-12 2007-04-24 動画の表示方法、動画表示システムおよび広角動画撮像装置 WO2007132646A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/299,921 US20090303351A1 (en) 2006-05-12 2007-04-24 Dynamic image display method, dynamic image display system, and wide-angle dynamic image capturing device
EP07742241A EP2031864A4 (en) 2006-05-12 2007-04-24 METHOD AND SYSTEM FOR DYNAMIC IMAGE DISPLAY, AND WIDE ANGLE DYNAMIC IMAGE CAPTURE DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006133287A JP2007306353A (ja) 2006-05-12 2006-05-12 動画の表示方法、動画表示システムおよび広角動画撮像装置
JP2006-133287 2006-05-12

Publications (1)

Publication Number Publication Date
WO2007132646A1 true WO2007132646A1 (ja) 2007-11-22

Family

ID=38693745

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/058806 WO2007132646A1 (ja) 2006-05-12 2007-04-24 動画の表示方法、動画表示システムおよび広角動画撮像装置

Country Status (4)

Country Link
US (1) US20090303351A1 (ja)
EP (1) EP2031864A4 (ja)
JP (1) JP2007306353A (ja)
WO (1) WO2007132646A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007318596A (ja) * 2006-05-29 2007-12-06 Opt Kk 広角レンズによる撮像データの圧縮方法、伸長表示方法、圧縮装置、広角カメラ装置およびモニタシステム
JP5200780B2 (ja) * 2008-09-08 2013-06-05 ソニー株式会社 撮影装置および方法、並びにプログラム
US20110128350A1 (en) * 2009-11-30 2011-06-02 Motorola, Inc. Method and apparatus for choosing a desired field of view from a wide-angle image or video
JP2012003189A (ja) * 2010-06-21 2012-01-05 Sony Corp 画像表示装置、画像表示方法およびプログラム
JP5672862B2 (ja) 2010-08-27 2015-02-18 ソニー株式会社 撮像装置、撮像システム及び撮像方法
EP2640058B1 (en) * 2010-11-11 2017-07-12 Panasonic Intellectual Property Corporation of America Image processing device, image processing method, program, and imaging device
CN103563352A (zh) 2011-06-10 2014-02-05 国际商业机器公司 自适应数字装置和用于数字装置的适配器
WO2014097789A1 (ja) 2012-12-20 2014-06-26 ソニー株式会社 画像処理装置、画像処理方法及び記録媒体
FR3032052B1 (fr) * 2015-01-26 2017-03-10 Parrot Drone muni d'une camera video et de moyens de compensation des artefacts produits aux angles de roulis les plus importants
JP2016212784A (ja) * 2015-05-13 2016-12-15 株式会社リコー 画像処理装置、画像処理方法
JP6942940B2 (ja) * 2016-03-14 2021-09-29 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6852878B2 (ja) * 2017-02-07 2021-03-31 富士通コネクテッドテクノロジーズ株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
RU173728U1 (ru) * 2017-02-07 2017-09-07 Акционерное общество "Российская корпорация ракетно-космического приборостроения и информационных систем" (АО "Российские космические системы") Пользовательский картографический интерфейс
JP7234802B2 (ja) * 2018-11-21 2023-03-08 株式会社リコー 撮像システム、端末及びプログラム
JP7350510B2 (ja) * 2019-05-14 2023-09-26 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP7350511B2 (ja) * 2019-05-14 2023-09-26 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
DE102020113972A1 (de) * 2019-05-31 2020-12-03 Apple Inc. Videoanalyse- und -managementtechniquen für medienerfassung und -aufbewahrung
US11196943B2 (en) 2019-05-31 2021-12-07 Apple Inc. Video analysis and management techniques for media capture and retention

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199006A (ja) * 2002-08-23 2003-07-11 Hitachi Ltd 携帯端末
JP2003198923A (ja) * 2001-12-27 2003-07-11 Canon Inc 撮像装置およびその撮像方法
JP2004056222A (ja) * 2002-07-16 2004-02-19 Canon Inc 撮像装置、撮像装置の制御方法、プログラム、及びコンピュータ読み取り可能な記憶媒体
JP2004282535A (ja) * 2003-03-18 2004-10-07 Mitsubishi Electric Corp 画角調整装置
JP2005117283A (ja) * 2003-10-07 2005-04-28 Fuji Photo Film Co Ltd ビデオカメラ
JP2005260357A (ja) * 2004-03-09 2005-09-22 Canon Inc 画像記録再生装置、画像記録再生方法、及びプログラム
JP2005267388A (ja) * 2004-03-19 2005-09-29 Toyota Motor Corp 画像処理装置
JP2005303933A (ja) * 2004-04-15 2005-10-27 Sony Corp 撮像装置
JP2006033760A (ja) * 2004-07-21 2006-02-02 Olympus Imaging Corp 撮像装置および画像補正方法
JP2006067391A (ja) * 2004-08-27 2006-03-09 Olympus Corp ブレ補正装置
JP2006080837A (ja) * 2004-09-09 2006-03-23 Canon Inc 撮像装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5276785A (en) * 1990-08-02 1994-01-04 Xerox Corporation Moving viewpoint with respect to a target in a three-dimensional workspace
US5990942A (en) * 1991-05-01 1999-11-23 Canon Kabushiki Kaisha Photographing apparatus using image information for blurring correction
AU673571B2 (en) * 1992-11-24 1996-11-14 Frank Data International N.V. A method and device for producing panoramic images, and a method and device for consulting panoramic images
US5650819A (en) * 1993-09-30 1997-07-22 Canon Kabushiki Kaisha Image pickup apparatus
WO1996024216A1 (en) * 1995-01-31 1996-08-08 Transcenic, Inc. Spatial referenced photography
JP3103045B2 (ja) * 1997-07-10 2000-10-23 三菱電機株式会社 画像撮影再生方式及び方法並びに画像再生プログラムを記録した記録媒体
JP2000346634A (ja) * 1999-06-09 2000-12-15 Minolta Co Ltd 3次元入力装置
JP2002209208A (ja) * 2001-01-11 2002-07-26 Mixed Reality Systems Laboratory Inc 画像処理装置及びその方法並びに記憶媒体
US7096428B2 (en) * 2001-09-28 2006-08-22 Fuji Xerox Co., Ltd. Systems and methods for providing a spatially indexed panoramic video
US6833843B2 (en) * 2001-12-03 2004-12-21 Tempest Microsystems Panoramic imaging and display system with canonical magnifier
JP4321128B2 (ja) * 2003-06-12 2009-08-26 株式会社デンソー 画像サーバ、画像収集装置、および画像表示端末
JP2005149409A (ja) * 2003-11-19 2005-06-09 Canon Inc 画像再生方法及び装置
US7444004B2 (en) * 2004-03-29 2008-10-28 Fujifilm Corporation Image recognition system, image recognition method, and machine readable medium storing thereon an image recognition program
US7746376B2 (en) * 2004-06-16 2010-06-29 Felipe Mendoza Method and apparatus for accessing multi-dimensional mapping and information

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198923A (ja) * 2001-12-27 2003-07-11 Canon Inc 撮像装置およびその撮像方法
JP2004056222A (ja) * 2002-07-16 2004-02-19 Canon Inc 撮像装置、撮像装置の制御方法、プログラム、及びコンピュータ読み取り可能な記憶媒体
JP2003199006A (ja) * 2002-08-23 2003-07-11 Hitachi Ltd 携帯端末
JP2004282535A (ja) * 2003-03-18 2004-10-07 Mitsubishi Electric Corp 画角調整装置
JP2005117283A (ja) * 2003-10-07 2005-04-28 Fuji Photo Film Co Ltd ビデオカメラ
JP2005260357A (ja) * 2004-03-09 2005-09-22 Canon Inc 画像記録再生装置、画像記録再生方法、及びプログラム
JP2005267388A (ja) * 2004-03-19 2005-09-29 Toyota Motor Corp 画像処理装置
JP2005303933A (ja) * 2004-04-15 2005-10-27 Sony Corp 撮像装置
JP2006033760A (ja) * 2004-07-21 2006-02-02 Olympus Imaging Corp 撮像装置および画像補正方法
JP2006067391A (ja) * 2004-08-27 2006-03-09 Olympus Corp ブレ補正装置
JP2006080837A (ja) * 2004-09-09 2006-03-23 Canon Inc 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2031864A4 *

Also Published As

Publication number Publication date
EP2031864A1 (en) 2009-03-04
EP2031864A4 (en) 2009-11-11
US20090303351A1 (en) 2009-12-10
JP2007306353A (ja) 2007-11-22

Similar Documents

Publication Publication Date Title
WO2007132646A1 (ja) 動画の表示方法、動画表示システムおよび広角動画撮像装置
JP4864295B2 (ja) 画像表示システム、画像表示装置およびプログラム
KR100518743B1 (ko) 전자카메라 및 촬영방향취득방법
US20200296284A1 (en) Image communication system, image capturing device, communication terminal, and mode switching method
US11310459B2 (en) Image capturing device, image capturing system, image processing method, and recording medium
US11393070B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US10937134B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
WO2007138846A1 (ja) 広角レンズによる撮像データの圧縮方法、伸長表示方法、圧縮装置、広角カメラ装置およびモニタシステム
JP2007318597A (ja) 広角レンズによる撮像データの圧縮方法、圧縮装置、広角カメラ装置およびモニタシステム
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
CN113574856A (zh) 图像处理设备、图像处理方法和程序
US11006042B2 (en) Imaging device and image processing method
KR20180027132A (ko) 디스플레이 장치
WO2019078297A1 (en) IMAGE PROCESSING APPARATUS, IMAGE CAPTURE SYSTEM, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM
WO2018124267A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2015126389A (ja) 撮像装置およびその制御方法
JP2018026642A (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
JP2017046160A (ja) 画像処理装置、その制御方法、および制御プログラム、並びに記憶媒体
EP3829159A1 (en) Image capturing device, image communication system, and method for display control, and carrier means
JP5776248B2 (ja) 撮像装置及びプログラム
US20070036536A1 (en) Electronic apparatus with adjustable charge couple device
JPH11122521A (ja) ディジタル撮像装置および撮像方法
US11700455B2 (en) Image capturing device, image communication system, and method for display control
WO2018124266A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07742241

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007742241

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12299921

Country of ref document: US