WO2007055335A1 - 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体 - Google Patents

画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2007055335A1
WO2007055335A1 PCT/JP2006/322498 JP2006322498W WO2007055335A1 WO 2007055335 A1 WO2007055335 A1 WO 2007055335A1 JP 2006322498 W JP2006322498 W JP 2006322498W WO 2007055335 A1 WO2007055335 A1 WO 2007055335A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
region
selection
unit
Prior art date
Application number
PCT/JP2006/322498
Other languages
English (en)
French (fr)
Inventor
Shigemitsu Yamaoka
Ryo Kamiya
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP06823320A priority Critical patent/EP1954029B1/en
Priority to CN2006800421038A priority patent/CN101305595B/zh
Priority to US12/084,349 priority patent/US8254713B2/en
Priority to DE602006021225T priority patent/DE602006021225D1/de
Priority to KR1020087011221A priority patent/KR101329470B1/ko
Priority to JP2007544204A priority patent/JP5136059B2/ja
Publication of WO2007055335A1 publication Critical patent/WO2007055335A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • G06T5/80
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Definitions

  • Image processing apparatus image processing method, program thereof, and recording medium recording the program
  • the present invention relates to an image processing device, an image processing method, a program thereof, and a recording medium that process a captured wide-field image.
  • the captured image includes not only a still image but also a moving image (see, for example, Japanese Patent Laid-Open No. 2000-324386 (the specification specification [0009], FIG. 1)).
  • An image processing apparatus processes image data including distortion of an imaging optical unit obtained by imaging an optical image from a subject via an imaging optical unit that applies distortion.
  • the first region selection mode for selecting a selected region indicating a partial region of the visual field using an orthogonal coordinate system and the visual field represented by the image data.
  • Area selection mode setting section for selectively setting the second area selection mode for selecting a selection area indicating a partial area of the field of view using the polar coordinate system, and the area selection mode setting section.
  • a data output unit that outputs distortion correction data obtained by correcting distortion of image data corresponding to the selected area selected in the first or second area selection mode.
  • a first region selection mode and a second region selection mode are provided as the region selection mode, and the selection region is set or switched in one of the region selection modes.
  • the area selection mode may be set to, for example, a user's favorite area selection mode! /, Or may be set according to the place where the image is taken, the environment, the purpose, or the like. Or it is good also as what is set to the area
  • the subject image mainly means moving images, but of course includes still images.
  • the selected region is switched using an orthogonal coordinate system. This is particularly effective when images such as That is, in such a case
  • the area selection mode (1) By selecting the area selection mode (1), an operation that is highly intuitive for humans becomes possible.
  • the second region selection mode when the second region selection mode is selected, the selected region is switched using the polar coordinate system, so that, for example, an image with a field of view that faces upward or downward from the horizontal plane is captured. It is valid. In other words, by selecting the second region selection mode in such a case, an operation that is highly intuitive for humans becomes possible.
  • image data used in the image processing apparatus is output from an imaging unit having an imaging optical unit and an imaging element that generates image data of a subject image incident via the imaging optical unit.
  • the image data may be used, or the storage device that stores the image data of the subject image incident through the imaging optical unit may be read image data.
  • the imaging unit and the storage device may be provided integrally with the image processing device or may be provided separately. Furthermore, the configuration may be such that only one of the imaging unit and the storage device is used.
  • the imaging unit for example, an image of a selected area indicating a partial area of the field of view from a wide-field subject image obtained in real time can be displayed without causing distortion.
  • a storage device for example, an image of a selected area from a wide-field subject image that has already been taken can be displayed without causing distortion. wear.
  • an imaging unit and a storage device are used, a real-time image and a past image can be viewed at a time, which is convenient.
  • the image processing apparatus includes a direction detection sensor that detects an incident direction of an optical image incident on the imaging optical unit, and the first region selection mode based on the sensor signal of the direction detection sensor force.
  • the second area selection mode may be set.
  • the region selection mode may be set according to the angle with respect to the vertical direction determined based on the sensor signal of the direction detection sensor force.
  • the area selection mode can be switched according to the imaging direction by the imaging optical unit, so that an appropriate area selection mode is selected according to whether the subject is imaged from the top, bottom, or horizontal direction, for example. This can improve user convenience.
  • the second region selection mode is used when the detected angle is less than 45 degrees or more than 135 degrees.
  • the angle is greater than 135 degrees and less than 135 degrees, it is switched to the first area selection mode.
  • the first region setting mode is switched to the second region setting mode depending on whether or not the angle exceeds the first threshold value, and the angle exceeds the second threshold value different from the first threshold value. Switching from the second region selection mode to the first region selection mode may be performed according to whether or not the power is high.
  • the threshold value for switching from the first area selection mode to the second area selection mode is different from the threshold value for switching from the second area selection mode to the first area selection mode.
  • the image processing apparatus includes a detection sensor that detects contact of an object, and performs a first region selection mode and a second region selection mode according to whether or not contact is detected. Let's switch.
  • the area selection mode when imaging while moving the imaging optical unit, the area selection mode can be switched according to the distance between the imaging optical unit and the subject.
  • an appropriate mode switching according to the user's application can be realized, such as the first area selection mode.
  • the first area selection mode or the second area selection mode is set according to the setting state of the selection area. This makes it possible to automatically switch the area selection mode depending on how the selection area is set.
  • the GUI Graphic User Interface
  • An image processing method is an image processing image data including distortion of the imaging optical unit obtained by imaging an optical image from a subject through an imaging optical unit that applies distortion.
  • a first region selection mode for selecting a selection region indicating a partial region of the visual field using an orthogonal coordinate system and the image data
  • a region selection mode setting step for selectively setting a second region selection mode for selecting a selection region indicating a partial region of the field of view using a polar coordinate system, and the region selection
  • the present invention can also be applied to the invention of a program and the invention of a recording medium on which the program is recorded.
  • image data including distortion of the imaging optical unit which is obtained by imaging an optical image having a strong subject power through the imaging optical unit that applies distortion, is used.
  • image data including distortion of the imaging optical unit, which is obtained by imaging an optical image having a strong subject power through the imaging optical unit that applies distortion.
  • FIG. 1 is a block diagram showing a configuration of an image processing system according to an embodiment of the present invention.
  • FIG. 2 is a diagram for explaining the relationship between a subject image formed on an image sensor and a selected area.
  • FIG. 3 is a block diagram showing a functional configuration of an image processing unit.
  • FIG. 4 is a diagram for explaining a display mode and a region selection mode.
  • FIG. 5 is a block diagram illustrating a specific configuration of an image processing unit.
  • FIG. 6 is a diagram showing an entire image.
  • FIG. 7 is a diagram showing an example of an image displayed on the display unit.
  • FIG. 8 is a flowchart showing the operation of a processing control unit.
  • FIG. 10 is a diagram showing the field of view (imaging range) when being imaged by the imaging unit. [11] It is a diagram for explaining the image height characteristics of the lens.
  • FIG. 12 is a diagram for explaining the principle of distortion correction processing.
  • FIG. 14 is a diagram for explaining an operation in the polar coordinate mode among the region selection modes.
  • ⁇ 15] Shows an example of the GUI displayed when the user issues an instruction to change the selected area using the input unit.
  • FIG. 16 is a diagram for explaining a case where a selection area switching instruction is issued when the orthogonal coordinate mode is selected.
  • ⁇ 17 Indicates the display image displayed on the display unit 14 when the display mode is switched in order when the Cartesian coordinate mode is selected.
  • FIG. 18 is a diagram showing a display image on the display unit when the polar coordinate mode is selected.
  • FIG. 19 is a diagram showing a display image after a switching instruction when the polar coordinate mode is selected.
  • FIG. 20 is a diagram showing a display image on the display unit when the polar coordinate mode is selected, and is a diagram for explaining a case where the display in the split display mode is turned upside down.
  • FIG. 22 is a diagram for explaining a Z reduction process.
  • ⁇ 23 It is a diagram showing a state before a rotation operation instruction is given.
  • ⁇ 24 It is a diagram for explaining the rotation processing of the image in the selected area.
  • ⁇ 25 It is also a diagram for explaining the rotation processing of the image in the selected area.
  • FIG. 26 is a block diagram showing a configuration of an image processing system according to another embodiment of the present invention.
  • FIG. 27 is a flowchart showing an example of processing performed by the image processing system shown in FIG. The
  • FIG. 28 is a flowchart showing another example of processing performed by the image processing system shown in FIG. 26.
  • FIG. 29 is a flowchart showing a storage process of position information or trajectory information.
  • FIG. 30 is a diagram for explaining a locus of a predetermined range on the display image in the flow shown in FIG. 29.
  • FIG. 31 is a block diagram showing a configuration of an image processing system according to still another embodiment of the present invention.
  • ⁇ 32 A block diagram showing a configuration of an image processing system according to still another embodiment of the present invention.
  • FIG. 33 is a diagram conceptually showing how the area selection mode MS is switched according to the installation direction of the imaging unit 11 in the image processing system of FIG. 32.
  • FIG. 34 The method for setting the threshold value for switching the states S 1, S 2 and S in FIG. 33 has been described.
  • FIG. 1 A first figure.
  • FIG. 35 Operation when the image processing system 40 in FIG. 32 switches between states S, S and S.
  • FIG. 36 is a diagram illustrating a coordinate calculation method when the image processing system in FIG. 32 sets the orthogonal coordinate mode and the polar coordinate mode, respectively.
  • FIG. 37 is a diagram illustrating a coordinate calculation method when the image processing system in FIG. 32 sets the orthogonal coordinate mode and the polar coordinate mode, respectively.
  • FIG. 38 is a diagram illustrating a coordinate calculation method when the image processing system in FIG. 32 sets the orthogonal coordinate mode and the polar coordinate mode, respectively.
  • FIG. 39 is a diagram illustrating a coordinate calculation method when the image processing system in FIG. 32 sets the orthogonal coordinate mode and the polar coordinate mode, respectively.
  • FIG. 40 is a diagram conceptually showing a method of switching display modes according to contact.
  • FIG. 42 is a diagram showing a state where the imaging direction is 45 degrees upward with respect to the horizontal direction.
  • FIG. 43 is a diagram illustrating an installation example of an imaging unit.
  • FIG. 44 is a diagram for explaining automatic switching of the area selection mode.
  • FIG. 45 is a diagram showing a GUI display and a moving direction of the image area when the area selection mode is automatically switched.
  • FIG. 46 is a diagram for explaining a region selection mode switching operation including a mixed mode.
  • FIG. 47 is a flowchart showing a region selection mode switching operation including a mixed mode.
  • FIG. 48 is a flowchart showing an operation when a direction button is operated.
  • FIG. 49 is a diagram showing a state in which the display mode MH is changed according to switching of the selection area in still another embodiment of the present invention.
  • FIG. 50 is a diagram showing a state in which the display mode MH is changed in accordance with the change in switching of the region selection mode MS in still another embodiment of the present invention.
  • FIG. 51 is a flowchart showing an operation flow of the image processing system when display mode switching processing is performed.
  • FIG. 52 is a flowchart showing another flow of operation of the image processing system when display mode switching processing is performed.
  • FIG. 53 is a diagram showing another form of display mode switching processing.
  • FIG. 1 is a block diagram showing a configuration of an image processing system according to an embodiment of the present invention.
  • the image processing system 10 includes an imaging unit 11, an input unit 12, an image processing unit 13, and a display unit 14.
  • the imaging unit 11 is configured using an imaging optical unit 111 and an imaging element 112.
  • the imaging optical unit 111 is for forming a subject image on the imaging surface of the imaging element 112.
  • the imaging optical unit 111 uses, for example, a wide-angle lens in order to form a wide-field subject image on the imaging surface of the imaging element 112.
  • a wide-angle lens a force that uses an angle of view of about 45 degrees or more is not limited to this.
  • the imaging optics 11 1 may be configured using a fish-eye lens, a PAL (Panoramic Annular Lens), or the like.
  • a cylindrical, bowl-shaped, or pyramid-shaped mirror is used so that a subject image with a wide field of view is imaged on the imaging surface of the image sensor 112 using the reflection of the mirror. It may be.
  • the field of view may be further expanded by combining a plurality of lenses and mirrors. For example, by using two fisheye lenses with an angle of view of about 180 °, it is possible to obtain a subject image with a field of view in all directions (spherical space (360 °;)).
  • the image sensor 112 uses, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) sensor that converts light into an electrical signal.
  • the image pickup device 112 generates image data DVa based on the subject image and supplies it to the image processing unit 13.
  • FIG. 2 shows the relationship between the object image formed on the image sensor 112 and the selected area when a fisheye lens is used for the imaging optical unit 111.
  • the angle of view of the imaging optical unit 111 is, for example, about 180 ° and the field of view can be shown as the hemispherical spherical surface 51 in FIG. 2, the subject image formed on the image sensor 11 2 (hereinafter referred to as “wide field image” t I) Gc is an image distorted by the imaging optical unit 111, for example, a circular image.
  • the displayed image becomes a display image in which distortion due to the imaging optical unit 111 occurs.
  • this selection area corresponds to, for example, the selection area 71 within the angle of view of the imaging optical unit 111.
  • the image processing unit 13 can display the image of the selected region without distortion by performing distortion correction processing for correcting the distortion generated by the imaging optical unit 111 on the image of the image region ARs.
  • the selection area so that the desired subject is included within the angle of view of the imaging optical unit 111, it is possible to display an image of the desired subject without distortion.
  • the position of the selected area is switched to a new position, or if the size or shape of the selected area is changed, the position, size, or shape of the image area ARs corresponding to the selected area is also changed. Therefore, an image at an arbitrary position or region within the angle of view of the imaging optical unit 111 is reduced with distortion of the imaging optical unit 111. It is possible to display in a corrected state.
  • the selection area can be set by designating the position of the selection area 71 within the angle of view of the imaging optical unit 111, the angle range indicating the range of the selection area 71, and the like. Further, since the image area ARs set on the wide-field image Gc corresponds to the selection area as described above, the selection area can also be specified by specifying the position, range, etc. of the image area ARs. Can be set.
  • the input unit 12 sets the operation mode when switching the position of the selected region, changing the region size and shape of the selected region, and switching the selected region, and the image display mode according to the user operation. And so on.
  • the input unit 12 may be any device that can be operated by the user. For example, a mouse, a keyboard, a switch device, a touch sensor, a controller for a game device, a stick-like operation device that can be held by a user, and the like can be given.
  • the input unit 12 generates input information PS corresponding to the user operation and supplies it to the image processing unit 13.
  • the image processing unit 13 performs distortion correction processing using the image data DVa supplied from the imaging unit 11, and the distortion generated by the imaging optical unit 111 is corrected to generate an image of the selected region. . Further, the image processing unit 13 sets the display mode of an image to be displayed on the display unit 14, generates display image data DVd corresponding to the set display mode, and supplies the image data DVd to the display unit 14. Note that the image processing unit 13 uses a wide-field image, an image of a selected region in which distortion is corrected, or the like as a display image.
  • the image processing unit 13 sets an area selection mode, which is an operation mode for switching the position of the selection area, and based on the input information PS from the input unit 12, the image selection unit 13 sets the selection area in the set area selection mode. Perform the switching process.
  • the image processing unit 13 sets the display mode and area selection mode specified in advance at the start of the first operation, sets the display mode and area selection mode at the end of the operation, and starts the operation. Also do.
  • the display unit 14 includes a liquid crystal display element, an organic EL element, and the like, and performs image display based on the image data DVd supplied from the image processing unit 13.
  • the imaging unit 11, the input unit 12, the image processing unit 13, and the display unit 14 may be provided as a single unit or may be provided separately. It is also good. Furthermore, only a part may be integrated. For example, if the input unit 12 and the display unit 14 are provided integrally, it is possible to easily operate the input unit 12 while confirming the display on the display unit 14. Further, in the imaging unit 11, the imaging optical unit 111 and the imaging element 112 may be integrated or provided separately.
  • FIG. 3 is a block diagram showing a functional configuration of the image processing unit 13.
  • the image processing unit 13 includes a distortion correction unit 13a, a region selection mode setting unit 13b, a display mode setting unit 13c, a data output unit 13d, and a control unit 13e.
  • the distortion correction unit 13a performs distortion correction for correcting distortion of the imaging optical unit 111 using image data corresponding to the selected region in the image data DVa, and generates distortion correction data.
  • the area selection mode setting unit 13b sets an area selection mode that is an operation mode when setting or switching the selection area.
  • the region selection mode setting unit 13b includes, as the region selection mode MS, an orthogonal coordinate mode MS1 that is a first region selection mode and a polar coordinate mode MS2 that is a first region selection mode. Select one of the area selection modes. Each region selection mode will be described later.
  • the display mode setting unit 13c sets a display mode for displaying an image or the like that has been subjected to distortion correction on the display unit 14.
  • this display mode setting unit 13c for example, as shown in FIG. 4, an overall image display mode MH1, a selected image display mode MH2, a both display mode MH3, and a split display mode MH4 are provided as display modes MH. Set to the display mode. Each display mode will be described later.
  • the data output unit 13d outputs image data of a display image corresponding to the set display mode.
  • distortion correction data is output.
  • the image data supplied from the imaging unit 11 is output.
  • the image of the selected area and the wide-field image that the distortion of the imaging optics 111 is corrected Uses the distortion correction data and the image data supplied from the imaging unit 11 to generate and output new image data.
  • control unit 13e performs setting and switching of the selection region in accordance with the region selection mode MS set by the region selection mode setting unit 13b.
  • FIG. 5 is a block diagram illustrating a specific configuration of the image processing unit 13.
  • the image data DVa is supplied to the image extraction processing unit 131 and the distortion correction processing unit 133.
  • the image extraction processing unit 131 extracts the image data DVc of the wide-field image (subject image) Gc from the image data DVa, and supplies the image data DVc to the selection region emphasis display processing unit 132.
  • the wide-field image Gc indicates a partial region on the sensor surface of the image sensor 112 and is determined by the imaging optical unit 111. For this reason, when the area of the wide-field image Gc on the sensor surface is fixed, predetermined pixel data extraction is performed from the image data DVa to extract the pixel data of the area of the wide-field image Gc.
  • the imaging optical unit 111 can be replaced and the area of the wide-field image Gc on the sensor surface changes, or the optical characteristics of the imaging optical unit 111 can be changed!
  • the area of the field image Gc changes the area of the wide field image Gc on the sensor surface is discriminated in advance, and the image data of the area of the wide field image Gc that is discriminated is extracted.
  • imaging is performed so that the entire field of view of the imaging optical unit 111 is a white subject, and a pixel position where the image data DVa is at a white level is detected. In this way, it is possible to easily determine the region of the wide-field image Gc.
  • the selection area highlighting processing unit 132 is indicated by the selection area setting information 3 ⁇ 4JA based on the selection area setting information JA supplied from the processing control section 135 described later in the wide-field image Gc.
  • the image area ARs corresponding to the selected area is processed so that the user can easily identify it.
  • the selection area emphasis display processing unit 132 provides a boundary display indicating the boundary between the image area ARs and the area that is not the image area ARs, or changes the luminance or color of the area excluding the image area ARs to display the image. Display control is performed so that the area ARs can be identified.
  • the image in this image area ARs is an image that is emphasized so as to be identifiable, and is called an enhanced image Gs.
  • An image of an image (hereinafter referred to as “whole image Gcp” t ⁇ ) in which the image area ARs is identified as the enhanced image Gs in the wide-field image Gc by performing such image processing.
  • Data DVcp is generated and supplied to the image output processing unit 134.
  • the distortion correction processing unit 133 corresponds to the distortion correction unit 13a shown in FIG. 3, performs the distortion correction processing of the imaging optical unit 111 using the image data DVa, and is supplied from the processing control unit 135. Then, the corrected image data DVsc in which the distortion of the selected region indicated by the selected region setting information JA is corrected is generated and supplied to the image output processing unit 134.
  • the image output processing unit 134 corresponds to the data output unit 13d shown in FIG. 3, and based on the display control information JH from the processing control unit 135, the image data DVcp and Z or the corrected image data DVsc Used to generate image data DVd of the display image.
  • the process control unit 135 corresponds to the region selection mode setting unit 13b, the display mode setting unit 13c, and the control unit 13e shown in FIG.
  • the process control unit 135 sets the area selection mode, and performs selection area setting and switching based on the input information PS from the input unit 12 according to the set area selection mode.
  • Selection area setting information A indicating the newly set selection area is generated and supplied to the selection area emphasis display processing unit 132 and the distortion correction processing unit 133.
  • the process control unit 135 sets the display mode, and displays control information according to the set display mode! BJH is generated and supplied to the image output processing unit 134.
  • the processing control unit 135 causes the display control information H to perform processing for including a menu display in the display image.
  • the image processing unit 13 includes, for example, a CPU (Central Processing Unit), a RAM (Random Access).
  • a CPU Central Processing Unit
  • RAM Random Access
  • the image processing unit 13 is composed of an FPGA (Field Programmable Gate Array), or a DSP (Digital Signal Processor), and a video encoder, a sound encoder, and an interface for acquiring the input information PS. Alternatively, an interface for outputting image data DVd to the display unit 14 may be provided, etc. Also, both FPGA and DSP should be used, and both should share processing.
  • FPGA Field Programmable Gate Array
  • DSP Digital Signal Processor
  • the input information PS supplied from the input unit 12 to the image processing unit 13 is information indicating the setting of the display mode MH and the region selection mode MS, the selection region switching instruction, and the like as described above.
  • the information indicating the selection area switching instruction includes a predetermined amount of the selected area in a predetermined direction. It may include information for moving the position, information indicating the position of the selected area after the change, and the like.
  • the input information PS should include information for changing the area size of the selected area, information for rotating the selected area, information for setting the area shape of the selected area, and the like.
  • the selection area is not limited to a mode in which switching or the like is performed according to a user operation.
  • a mode in which the selection area is set at a position designated in advance as described above is also conceivable.
  • the information related to the selected area may be stored in advance in a ROM (not shown) or an external storage device.
  • a specific area in the wide-field image Gc is automatically recognized, a form in which the automatically recognized specific area is processed as an image area ARs corresponding to the selected area may be considered.
  • a mode in which an area including an image of the moving subject is automatically processed as an image area ARs is also conceivable.
  • image regions detected in the wide-field image Gc are processed as image regions ARs corresponding to the selected region by various sensors (not shown).
  • the sensor include a temperature sensor, a sound sensor, a pressure sensor, an optical sensor, a humidity sensor, a vibration sensor, a gas sensor, and various other sensors.
  • the sensor signals generated by these sensors are supplied to the processing control unit 135, and the processing control unit 135 uses the supplied sensor signals to switch the selected region and control each unit. For example, if an abnormal temperature or abnormal sound is detected, the screen of the display unit 14 can be changed if the selected area is automatically switched according to the direction in which the abnormal temperature or abnormal sound is detected.
  • the captured image in the direction in which the abnormality is detected can be displayed in a corrected state.
  • the display mode is switched, the region size is switched, or the region shape is switched in accordance with the detection of an abnormality, a display that allows the user to easily confirm the abnormality is possible.
  • the configuration shown in FIG. 5 is exemplary, and the image processing unit 13 is not limited to the configuration shown in FIG. 5 as long as it has the functional configuration shown in FIG.
  • the image processing unit 13 is not limited to the configuration shown in FIG. 5 as long as it has the functional configuration shown in FIG.
  • the image data DVa supplied from the imaging unit 11 indicates only the wide-field image Gc
  • the selection area highlighting processing unit 132 may be provided on the output side instead of the input side of the image output processing unit 134. In this case, When a wide-field image is included in the image based on the image data DVa, processing is performed so that the user can easily identify the image region corresponding to the selected region in the wide-field image.
  • FIG. 6 shows the entire image.
  • the wide-field image Gc is an image having distortion caused by the imaging optical unit 111.
  • the selection region is set by the processing control unit 135, the selection region emphasis display processing unit 132 performs image processing so that the selection region can be easily identified as described above.
  • a boundary display for example, a frame display
  • the brightness and color of the area excluding ARs are changed, and the enhanced image Gs is obtained by emphasizing the image area ARs.
  • the image area ARs corresponding to the selected area shows the entire wide-field image Gc.
  • the processing control unit 135 controls the operation of the image output processing unit 134 by the display control information! BJH and sets the entire image display mode MH1, as shown in FIG. In Gc, the image area ARs can be identified as the emphasized image Gs, and image data DVd having only the entire image Gcp as a display image is generated.
  • the processing control unit 135 corrects distortion generated by the imaging optical unit 111 with respect to the image in the image area ARs (hereinafter referred to as “selected area display image”). The image data DVd with only Gsc as the display image is generated.
  • the processing control unit 135 when both display modes MH3 are set, the processing control unit 135 generates image data DVd of a display image in which the entire image Gcp and the selected area display image Gsc are displayed simultaneously as shown in FIG.
  • the image data DVd of the display image displayed together with the entire image Gcp is generated as the selection area display image Gsc with the distortion corrected image of each emphasized image corresponding to the selection area.
  • the image output processing unit 134 may use a technique such as OSD (On Screen Display).
  • the process control unit 135 performs initial setting of the display mode and area selection mode and setting of the selection area (ST1 001). For example, at the start of the first operation, the preset display mode and area selection Select mode. In addition, the selected area is set in a predetermined size in the preset viewing direction. In addition, information indicating the display mode, area selection mode setting status, and selection area setting status is stored at the end of the operation, and this information is used at the start of the next operation to operate in the state at the end of the previous operation. It may be a start.
  • the process control unit 135 determines whether or not the input information PS supplied from the input unit 12 is information that causes a change in setting or the like (ST1002).
  • the processing control unit 135 sets the display mode and the area selection mode according to the acquired input information PS.
  • the operation of the distortion correction processing unit 133 is controlled so that the distortion correction processing is performed on the image of the selected area after the change or the selection area is changed.
  • the selected area highlighting processing unit 132 is controlled so that the image of the selected area after the change can be identified.
  • the operation of the image output processing unit 134 is controlled so that the image data DVd corresponding to the changed mode is generated (ST1003).
  • the distortion correction processing unit 133 when the acquired input information PS is to change the size or shape of the selected area, the distortion correction processing unit 133 or the like so that distortion correction or highlight processing is performed corresponding to the selected area after the change.
  • the selected area highlighting processing unit 132 is controlled. For example, even when the shape of the selected area is set to a circle, ellipse, triangle, pentagon or more polygon, a shape composed of straight lines and curves, or other complex shapes, etc.
  • the distortion correction processing unit 133 is controlled so that distortion correction of an image included in the shape selection region is performed.
  • the operation of the selection area emphasis display processing unit 132 is controlled so that an emphasized image corresponding to the selection area of these shapes is obtained.
  • the process returns to ST1002, and the input information PS newly supplied from the input unit 12 is information that causes a change in setting or selection. It is determined whether or not there is a certain force.
  • the process of obtaining the input information PS and obtaining the image of the selected area in a state where the distortion is corrected in accordance with the input information PS is referred to as a development process.
  • FIG. 9 When the field of view is expressed in a three-dimensional space as shown in FIG. 9, the selected area can be expressed on the spherical surface 52.
  • the angle ⁇ indicates the incident angle when the arrow OA is the optical axis.
  • the imaging optical unit 111 is configured using a fisheye lens having an angle of view of, for example, about 180 °, the field of view corresponds to the hemispherical portion of the spherical surface 52. For this reason, when the imaging optical unit 111 is installed directly upward, the upper half of the spherical surface becomes the field of view of the imaging optical unit 111 as shown in FIG.
  • the field of view of the upper half of the sphere is called the field of upper hemisphere.
  • the lower half of the spherical surface becomes the field of view of the imaging optical unit 111 as shown in FIG.
  • the field of view of the lower half of the sphere is called the field of lower hemisphere.
  • the front half of the spherical surface is the field of view of the imaging optical unit 111, as shown in FIG.
  • the field of view of the front half of the spherical surface is called the field of front hemisphere.
  • the field of view in the case of imaging the left direction or the right direction instead of imaging in the front is a left hemisphere field or a left hemisphere field.
  • the imaging optical unit 111 As a case where the imaging optical unit 111 is installed facing directly above, that is, a case where the optical axis of the imaging optical unit 111 is substantially aligned with a vertical line and the imaging direction is upward, for example, Ground, floor, desktop force It is assumed that you are looking upward. For example, when the imaging optical unit 111 is installed directly below, that is, when the optical axis of the imaging optical unit 111 substantially coincides with the vertical line and the imaging direction is downward, for example, downward from the ceiling or the sky. It is assumed that As a case where the imaging optical unit 111 is installed in the horizontal direction, for example, a case where the horizontal or horizontal direction is viewed from a wall perpendicular to the ground is assumed.
  • a field of view of the upper half and the lower half are also conceivable.
  • a hemispherical field of view according to the installation direction of the imaging optical unit 111 (when the imaging optical unit 111 and the imaging device 112 are configured as a body, the installation direction of the imaging unit 11) is obtained.
  • the direction of the field of view changes depending on the installation direction not only when a fisheye lens is used but also when a wide-angle lens, a mirror, or the like is used. Further, when the visual field is wide, a part of the visual field range may be selected and the selected visual field range may be used.
  • the distortion correction processing of the distortion correction processing unit 133 will be described.
  • geometric correction is used.
  • a general algorithm such as a two-dimensional orthogonal coordinate system without distortion may be used.
  • the conversion formula and conversion table are stored in a ROM or other memory not shown. Just do it.
  • the present invention is not limited to such distortion correction, and other known distortion correction may be used.
  • FIG. 11 is a diagram for explaining the image height characteristics of the lens.
  • the upper hemisphere field of view centered at point O is displayed in two dimensions when viewed from the y-axis direction.
  • an arrow OPk indicates, for example, the direction of the subject.
  • the distance to the imaging point Q for the point O force is the image height Lh.
  • FIG. 11B is a graph illustrating the image height characteristics.
  • the horizontal axis shows the angle (incident angle) ⁇
  • the vertical axis shows the image height Lh.
  • the data may be stored in the memory in advance as a conversion table.
  • FIG. 12 is a diagram for explaining the principle of the distortion correction processing.
  • (A) of FIG. 12 is a display plane 81 showing the range of the image displayed on the display unit 14.
  • FIG. 12B shows a state in which the display plane 81 is set with respect to the spherical surface 51 of the upper hemisphere field of view.
  • the display plane 81 indicating the range of the display image corresponds to the selection area.
  • (C) in FIG. 12 shows a state in which the spherical surface 51 shown in FIG. 12 (B) is projected onto the xy plane, and the area where the spherical surface 51 is projected corresponds to the area of the entire image Gcp. To do.
  • the angle ⁇ between the direction of the point P 'on the XY plane corresponding to the point P and the X axis can be obtained, and the angle ⁇ and the image height Lh force can also be obtained as the position of the image point Q.
  • the drawing of the point P on the display plane 81 is performed based on this pixel data as shown in FIG. Do.
  • an image in which distortion generated by the imaging optical unit 111 is corrected can be displayed on the display plane 81.
  • the pixel signal corresponding to the imaging point Q is generated using the pixel signal of the pixel located around the imaging point Q.
  • a pixel signal corresponding to the imaging point Q can be generated by performing interpolation or the like using pixel signals of pixels located around the imaging point Q.
  • the processing control unit 135 uses the information indicating the selection area using the angles ⁇ and ⁇ shown in FIG. 12B as the selection area setting information JA. In this case, since the image area ARs corresponding to the selected area can be determined from the image height Lh corresponding to the angle ⁇ and the angle ⁇ , the selected area emphasis display processing unit 132 emphasizes the image area ARs corresponding to the selected area.
  • Whole image as Gs Gcp image data DVcp can be generated.
  • the distortion correction processing unit 133 obtains pixel data corresponding to each pixel based on the angles 0 and ⁇ indicating each pixel on the display plane corresponding to the selection region, thereby selecting the distortion corrected processing.
  • the corrected image data DVsc of the area display image Gsc can be generated.
  • the image data DVcp of the entire image Gcp or the selected area display image Gsc can be obtained by performing the above-described arithmetic processing.
  • the corrected image data DVsc can be generated. If coordinate values are used, the selected area can be easily shown even if the shape of the selected area becomes complicated.
  • the area selection mode MS includes the first area selection mode, the Cartesian coordinate mode MS1 and the second area selection mode. There is a polar coordinate mode MS2!
  • the Cartesian coordinate mode MS1 is, for example, as shown in FIG. 10 (C), when a wall isotropic force perpendicular to the ground is viewed in the horizontal or horizontal direction as the front hemisphere field of view. In this mode, an image that has been subjected to normal processing can be easily obtained.
  • the processing control unit 135 performs arithmetic processing for moving the selection region 71 in the direction of the axis of the orthogonal coordinate system based on the switching instruction. Line! ⁇ ⁇ Generate selection area setting information A indicating the newly set selection area.
  • FIG. 13 is a diagram for explaining the operation in the orthogonal coordinate mode MS1 in the region selection mode.
  • the selection area 71 is switched according to the switching instruction using the Cartesian coordinate system.
  • the switching instruction indicates, for example, the coordinate values of the X coordinate and y coordinate of the selected area after switching, or indicates the amount of movement of the selected area in the X direction and the amount of movement in the y direction. Switch on.
  • the selection area 71 becomes a new position moved in the direction of the axis of the orthogonal coordinate system. If the X coordinate and y coordinate are changed, the selection area 71 becomes a new position moved in an oblique direction with respect to the axial direction of the orthogonal coordinate system.
  • the locus of an arbitrary point (for example, the center PO) on the selection area 71 is a line 51x. Further, when setting is performed sequentially by moving in the direction of the selection area 71 based on the switching instruction, the locus of the center PO on the selection area 71 is a line 51y. Note that the image area ARs also moves when the selection area 71 is moved.
  • the selection area is switched by changing the coordinate value of the orthogonal coordinate system. For this reason, when the field of view is the front hemisphere, for example, if the Cartesian coordinate mode MS1 is selected, the selection area 71 can be easily set to the position moved in the horizontal or vertical direction according to the selection area switching instruction. Therefore, the image displayed on the display unit 14 can be easily switched to an image in a desired direction. For example, it becomes easy to select and display a desired subject from the subjects arranged in the horizontal direction.
  • Polar coordinate mode MS2 As shown in Fig. 10 (A), when viewing from the top, from the ground, on the floor, or from the desk as the upper hemisphere view, or from the ceiling or the sky as the lower hemisphere view, as shown in Fig. 10 (B). This is a mode in which an image subjected to distortion correction processing for a desired subject can be easily obtained, for example, when viewing.
  • the processing control unit 135 changes the selection area 71 based on the switching instruction to change the declination angle of the polar coordinate system. An arithmetic process that moves in the direction is performed, and selection area setting information A indicating the newly set selection area is generated.
  • FIG. 14 is a diagram for explaining the operation in the polar coordinate mode MS2 in the region selection mode.
  • the selection area 71 is switched according to the switching instruction using the polar coordinate system.
  • the switching instruction may indicate the declination angle ⁇ ag and declination c ⁇ ag of the selected area after switching,
  • the selected area 71 is switched on the polar coordinates to indicate the change amount of the angle ⁇ ag and the change amount of the deflection angle ⁇ ag.
  • the selected area 71 is the direction in which the declination ⁇ ag of the polar coordinate system changes (hereinafter referred to as the ⁇ ag change direction). Alternatively, it becomes a new position moved in the direction in which the declination ⁇ ag changes (hereinafter referred to as “ ⁇ ag change direction”). Further, if the declination ⁇ ag and the declination ⁇ ag are changed, the selected area 71 becomes a new position moved in the oblique direction with respect to the ⁇ ag change direction or ⁇ ag change direction of the polar coordinate system.
  • the locus of an arbitrary point (for example, the center PO) on the selection area 71 is a line 51r.
  • the locus of the center line on the selection area 71 is a line 51s. Note that the image area ARs also moves when the selection area 71 is moved.
  • the switching instruction may indicate, for example, the declination ⁇ ag and the radius of the selected area after the switch, or the declination ⁇ ag By indicating the amount of change and the amount of change in the radius, the selection area 71 can be switched on the polar coordinates even when the field of view is expressed in a two-dimensional space.
  • the declination and Z or radius of the polar coordinate system are changed. By doing so, the selection area is switched. For this reason, if the polar coordinate mode MS2 is selected when the field of view is the upper hemisphere field or the lower hemisphere field of view, the selected area 71 can be easily moved to the position moved in the direction of change of the declination according to the selection area switching instruction. Since the setting can be performed, the image displayed on the display unit 14 can be easily switched to an image in a desired direction. For example, the subject force positioned around the imaging optical unit 111 can easily select and display a desired subject.
  • FIG. 15 shows an example of a GUI (Graphical User Interface) displayed when the user operates the selection area using the input unit 12.
  • the operation input screen Gu shown in (A) of FIG. 15 and (B) of FIG. 15 may be displayed on the display unit 14 together with the entire image Gcp and the selection area display image Gsc shown in FIG.
  • the operation input screen Gu and the whole image Gcp may be displayed on separate display units.
  • a display unit is provided separately from the display unit 14 that displays the entire image Gcp and the selection area display image Gsc, for example, a display unit is provided in the input unit 12 and GUI display is performed on this display unit. Also good.
  • the operation input screen Gu is provided with a direction button group Gua or a direction button group Gub, an “enlarge” button Gucl, and a “reduction” button Guc2.
  • a direction button group Gua for example, there are direction buttons Gua2 such as “Up”, “Down”, “Right”, and “Left” buttons around the center “select” button Gual.
  • direction buttons Gub2 such as a “North” button and an “SE (South East)” button around the central “select” button Gubl.
  • FIG. 16 is a diagram for explaining a case where a selection area switching instruction is issued when the orthogonal coordinate mode MS1 is selected.
  • the case where both display modes MH3 are displayed as the display mode MH is described.
  • a description will be given of an example in which the user performs an operation while looking at the operation input screen Gu shown in FIG.
  • Continuous press refers to a state in which the state of being pressed once is not released, and is a so-called “long press”.
  • the processing control unit 135 of the image processing unit 13 selects the direction according to the orthogonal coordinate mode MS 1 according to the input information PS of the input unit 12. region Perform the switching process! ⁇ ⁇ Generate selection area setting information A indicating the newly set selection area. Further, the process control unit 135 supplies the generated selection area setting information JA to the selection area emphasis display processing unit 132 so that the emphasized image Gs indicates the image area ARs corresponding to the newly set selection area. Change the highlight area. Further, the processing control unit 135 supplies the generated selection region setting information A to the distortion correction processing unit 133, and the imaging optical unit 111 generates an image of the image region ARs corresponding to the newly set selection region. The selected area display image Gsc with the corrected distortion is processed.
  • the image output processing unit 134 generates image data DVd of a display image including the selection area display image Gsc according to the display mode and supplies the generated image data DVd to the display unit 14.
  • the display unit 14 displays an image when the selected area is moved to the right as shown in FIG. Also, the position of the emphasized image Gs is updated in the entire image Gcp.
  • the processing control unit 135 sets the movement amount of the selected area according to the number of times the “Right” button is operated and the pressed period.
  • the selected area display image Gsc is updated. In this way, the processing control unit 135 performs the expansion process using the orthogonal coordinate system shown in FIG. 13 and causes the display unit 14 to display the selected area display image.
  • the processing control unit 135 When the user presses an “Up” button, for example, the processing control unit 135 performs a selection area switching process according to the input information PS, and accompanies the selection area switching! Then, the enhanced image Gs of the moving image area ARs is displayed on the display unit 14 as the selected area display image Gsc in which the distortion generated by the imaging optical unit 111 is corrected.
  • buttons Gual and Gubl in (A) and (B) of FIG. 15 can be used in various ways. For example, it can be used as a recording start button for recording the selected area display image Gsc in the current image area ARs. In addition, in the case where the image area ARs is indicated as the emphasized image Gs, V, and so on, this image area ARs is displayed as the emphasized image Gs and can be used as an area selection operation start button for allowing the user to perform the area selection operation. Available. Alternatively, it can be used as a switching button for display mode MH and other various buttons.
  • the selection area display image Gsc is updated by newly setting the selection area in the “3 ⁇ 4” direction. Further, when the processing control unit 135 determines that the “West” button has been operated, the selection area display image Gsc is updated by newly setting the selection area in the “West” direction. In this way, by operating the button indicating the desired direction, it is possible to display an image in which the selected area is set at a desired new position without causing distortion on the display unit 14.
  • GUI display shown in FIGS. 15A and 15B is merely an example, and needless to say, the present invention is not limited to this.
  • FIG. 17 shows a display image displayed on the display unit 14 when the display mode is sequentially switched when, for example, the orthogonal coordinate mode is selected.
  • A in FIG. 17 is a display image when the whole image display mode MH1 is set, and only the whole image Gcp is displayed.
  • B of FIG. 17 is a display image when the selected image display mode MH2 is set, and only the selected region display image Gsc is displayed.
  • C in FIG. 17 is a display image when both display modes MH3 are set, and both the entire image Gcp and the selection area display image Gsc are displayed.
  • the display modes are sequentially switched, the entire image display mode MH1, the selected image display mode MH2, and the both display mode MH3 are cyclically switched.
  • FIG. 18 shows a display image displayed on the display unit 14 when the polar coordinate mode MS2 is selected.
  • FIG. 18 shows a case where two selection areas are provided. Note that the selection area is not limited to one or two, and the user may be provided freely. For example, each time the “Menu” button Guc3 shown in FIGS. 15A and 15B is operated, it may be increased, or another GUI display (not shown) may be used.
  • the process control unit 135 performs a process of setting a plurality of selection areas according to the input information PS from the input unit 12. Alternatively, it may be set so that a plurality of selection areas are provided in advance, regardless of the input information PS from the input unit 12. Further, the processing control unit 135 individually generates a selection region display image of each selection region when the divided display mode MH4 is set according to the input information PS from the input unit 12, and the display unit 14 It is good also as what is displayed simultaneously.
  • the selection area display image Gscl is an image of the first selection area. That is, the enhanced image Gsl of the image area ARsl corresponding to the first selection area is an image that has been subjected to distortion correction processing. Further, the selection area display image Gsc2 is an image in which the enhanced image Gs2 of the image area ARs2 corresponding to the second selection area is subjected to distortion correction processing.
  • the control unit 135 performs a process of switching the selected area in the ⁇ ag change direction in response to the switching instruction.
  • the selected area setting information A indicating the selected area after the processing is selected and highlighted.
  • the selection area emphasis display processing unit 132 displays the emphasized images Gsl and Gs2 corresponding to the selected area after processing.
  • the distortion correction processing unit 133 is a selection area display image in a state where the distortion of the image areas ARsl and ARs2 corresponding to the selected area after processing is corrected by the imaging optical unit 111. Perform correction processing to Gscl and Gsc2. For this reason, the display image after the switching instruction is displayed as the selection area display images Gscl and Gsc2 as shown in FIG. 18B. Further, the emphasized images Gsl and Gs2 correctly indicate the regions of the selection region display images Gscl and Gsc2. In this case, the image areas ARsl and ARs2 are moved in the counterclockwise direction on the entire image Gcp. When the direction of the switching instruction is the reverse direction, the image areas ARsl and ARs2 are moved in the clockwise direction. Will be.
  • the input information PS supplied from the input unit 12 is, for example, a switching instruction to switch the selection region in the ⁇ ag change direction of the polar coordinate system shown in FIG.
  • the process control unit 135 performs a process of switching the selected area in the ⁇ ag change direction, and selects the selected area setting information 3 ⁇ 4JA indicating the selected area after the process.
  • the selection area emphasis display processing unit 132 displays the emphasized images Gsl and Gs2 corresponding to the selected area after processing.
  • the distortion correction processing unit 133 performs processing based on the selection area setting information JA.
  • Correction processing is performed on the images of the image areas ARsl and ARs2 corresponding to the subsequent selection areas as the selection area display images Gscl and Gsc2 in a state in which the distortion generated by the imaging optical unit 111 is corrected. For this reason, the display image after the switching instruction is displayed as the selection area display images Gscl and Gsc2 as shown in FIG. Further, the emphasized images Gsl and Gs2 correctly indicate the regions of the selection region display images Gscl and Gsc2.
  • the image areas ARs1 and ARs2 are moved so as to approach each other in the radial direction on the entire image Gcp, and when the direction of the switching instruction is the reverse direction, the image areas ARsl and ARs2 are The entire image Gcp is moved away from each other in the radial direction.
  • switching of the selection area can be realized by a mouse, a keyboard, a touch sensor, or the like, and the GUI at that time may take any form.
  • polar coordinate mode MS2 for example, from the state of the display image shown in FIG. 18 (A), as shown in FIG. 20, the selected region display image Gs cl according to the input information PS acquired from the input unit 12 is shown. Can be displayed by rotating 180 degrees below the display unit 14, and the selection area display image Gsc2 can be displayed rotating 180 degrees above the display unit 14. This makes it convenient for the user to view the image at an angle.
  • the image processing unit 13 does not generate a single-screen composite distortion corrected image even when a plurality of selection regions are provided, and selects a selection region table of one selection region.
  • a display image may be generated and output to the display unit 14.
  • image data for outputting one selection area display image for each selection area as a single screen is output, or selection area display images for a plurality of selection areas are generated and each selection area display image is combined. Whether to output the image data to be displayed on the screen is controlled by the processing control unit 135 of the image processing unit 13 according to the input information PS from the input unit 12 or according to the preset setting information.
  • the processing control unit 135 switches the display mode MH in the same manner as in the orthogonal coordinate mode MS1. In addition, when multiple selection areas are provided, select the split display mode MH4. Make it possible.
  • FIG. 21 is a diagram showing transition of display mode switching when the split display mode MH4 can be selected. It is assumed that four selection areas are provided.
  • both display modes MH3 is a mode that displays one selected area correction image ((A) in Fig. 21)
  • both display modes MH3 is a mode that displays one selected area display image upside down ( Figure 21 ( B)), a mode that displays two selected area corrected images in split display mode MH4 ((C) in Fig. 21), and an image that displays two selected area corrected images in split display mode MH4.
  • split display mode MH4 displays four selected area corrected images (Fig. 21 (E))
  • split display mode MH4 displays selected area corrected images. It is possible to switch the display mode (Fig.
  • the orthogonal coordinate mode MS 1 and the polar coordinate mode MS 2 are provided as the region selection mode, for example, by switching the region selection mode according to the viewing direction, it is possible to intuitively This makes it possible to realize an image processing apparatus that is convenient and easy to use for the user.
  • the image processing unit 13 can perform processing for enlarging, reducing, or rotating the selected region display image.
  • the processing control unit 135 performs processing for reducing the range of the selection region! ⁇ Selection region setting information JA indicating the selection region after processing is selected region highlight display processing unit 132 And supplied to the distortion correction processing unit 133. Based on the selection area setting information JA, the selection area emphasis display processing unit 132 displays the emphasized images Gsl and Gs2 corresponding to the selected area after processing.
  • the distortion correction processing unit 133 captures the images of the image areas ARsl and ARs2 corresponding to the selected area after processing using the imaging light. Correction processing is performed for the selected region display images Gscl and Gsc2 in a state in which distortion caused by the undergraduate 111 is corrected.
  • the display image after the reduction operation is the selected region display image Gsc corresponding to the selected region after the reduction.
  • the image is displayed on the entire screen except for the display region of the entire image Gcp. Therefore, the human image GM included in the image area ARs is compared to Fig. 22 (A). It will be enlarged and displayed. Since the selected area is reduced, the image area ARs in the whole image Gcp becomes narrower.
  • the processing control unit 135 performs the process of reducing the range of the selection area according to the input information PS, indicating the selection area after processing.
  • the selected area setting information A is supplied to the selected area emphasis display processing unit 132 and the distortion correction processing unit 133.
  • the emphasized image Gs of the image area ARs corresponding to the enlarged selected area is subjected to distortion correction processing and displayed as the selected area display image Gsc on the entire screen excluding the display area of the entire image Gcp.
  • the person image GM included in is reduced and displayed as compared with (A) in FIG. In this way, enlargement / reduction processing can be performed.
  • FIG. 23 shows a case where the image processing unit 13 rotates and displays the image of the selected region.
  • (A) and (B) in FIG. 23 show the state before the “rotation” operation instruction
  • (A) in FIG. 23 shows, for example, the person image GM in the entire image Gcp in the image area ARs. This shows a case where the selection area is set as shown.
  • FIG. 23 (B) shows a selected area display image Gsc that is an image in which the enhanced image Gs in the image area ARs has been subjected to distortion correction processing.
  • the processing control unit 135 rotates about the center point of the image area ARs according to the input information PS. In this way, the selection area is changed. In this case, the person image GM is rotated in the reverse direction in the image area ARs corresponding to the selected area after the change process. Therefore, if the selection area display image Gsc corresponding to the emphasized image Gs of the image area ARs corresponding to the selection area after the change process is generated, the person image GM rotates the selection area as shown in FIG. An image rotated in the direction opposite to the direction can be obtained. This rotation process is convenient because the user can see the observation object at an easy-to-see angle. [0097] The entire image Gcp may be rotated instead of rotating the selection area.
  • FIG. 26 is a block diagram showing a configuration of an image processing system according to another embodiment of the present invention.
  • the description of the same devices and functions provided in the image processing system 10 shown in FIG. 1 will be simplified or omitted, and different points will be mainly described.
  • the image processing system 20 has a configuration in which a storage device 21 is further added to the image processing system 10 of FIG.
  • the storage device 21 is a device that stores, for example, the image data D Va generated by the imaging unit 11 and various image data generated by the image processing unit 13.
  • the storage medium used for the storage device 21 may be any medium that can store image data, such as an optical disk, a magnetic disk, a semiconductor memory, a dielectric memory, and a tape-shaped storage medium.
  • the image processing unit 13 reads the image data D Va desired by the user from the storage device 21 in accordance with the input information PS from the input unit 12. Thus, it can be displayed on the display unit 14. Specifically, in accordance with the input information PS based on the user operation, the image processing unit 13 reads the past wide-field image Gc image data DVa stored in the storage device 21, and reads the read image.
  • a selection area is set for the field of view represented by the data DVa
  • a selection area display image which is an image in which distortion of the selection area is corrected, is displayed on the display unit 14.
  • the image processing unit 13 performs distortion correction processing on an image of a preset selected area from past wide-field images stored in the storage device 21 and displays the image on the display unit 14.
  • the form to be able to make is also considered.
  • the following form may be considered. For example, if a user The selected area is selected from the wide-field image obtained in real time from the imaging unit 11, and the entire image Gcp and the selected area display image Gsc are viewed in real time and stored in the storage device 21. The user can then view a selected area display image Gsc by selecting a different area from the area selected in real time while viewing the stored whole image Gcp.
  • the image processing unit 13 may store only the image data of the selected region display image Gsc without storing the image data of the entire image Gcp in the storage device 21. In this case, the user can view the selected area display image Gsc later.
  • the image data indicating both the entire image Gcp and the selected area display image Gsc and the image data of each image may be stored.
  • the image processing unit 13 can also perform the processing of the flowchart shown in FIG.
  • the image processing unit 13 acquires a real-time wide-field image from the imaging unit 11 (ST2401), and acquires a past wide-field image or a past selected area display image stored in the storage device 21 (ST2402). .
  • the image processing unit 13 performs a process of combining the acquired wide-field image and the past wide-field image or the past selected area display image as image data of one screen (ST2403), and the combined image Data can be output to the display unit 14 (ST2404).
  • the image processing unit 13 may display the acquired wide-field image and the past wide-field image or the past selected area display image on separate display units 14.
  • a form in which ST2401 and 2402 are in the reverse order is also conceivable.
  • the image processing unit 13 may select a display area display image Gsc obtained by performing distortion correction processing in real time (this selection area display image Gsc may be an image generated in real time from a real-time wide-field image. In other words, it may be an image generated in real time from a past wide-field image stored in the storage device 21.) and a past selected area display image may be output.
  • this selection area display image Gsc may be an image generated in real time from a real-time wide-field image. In other words, it may be an image generated in real time from a past wide-field image stored in the storage device 21.
  • a past selected area display image may be output.
  • the image processing unit 13 acquires a wide-field image from the imaging unit 11 in real time, or acquires a past wide-field image from the storage device 21 (ST2501). Furthermore, the image processing unit 13 acquires a past selection area display image stored in the storage device 21 (ST2502).
  • the image processing unit 13 performs distortion correction processing on the image of the selected area in the wide-field image acquired in ST2501 (ST25 03).
  • the image processing unit 13 synthesizes the selection area display image generated by the distortion correction process and the selection area display image acquired in ST 2502 as one screen image data (ST2 504), and selects this display area display image. It is output to the display unit 14 as Gsc (ST2505). It is possible to consider a form in which ST2501 and 2502 are in the reverse order, and a form in which ST2502 and 2503 are in the reverse order of force.
  • the image processing unit 13 further selects a selection area display image (hereinafter referred to as a real-time selection area display image) obtained by performing distortion correction processing in ST2503, and a past selection area. It is also possible to output the display image in such a manner that a human can distinguish it on the display unit. Specifically, when the image processing unit 13 generates an image with an identifier added to at least one of the real-time selection area display image and the past selection area display image, for example, a frame surrounding the power images is generated and the frame is displayed. For example, an image with a different color may be generated.
  • the image data stored in the storage device 21 is a moving image
  • a certain amount of moving image data is stored in accordance with the storage capacity of the storage device 21, and the oldest image frame force is automatically and sequentially deleted. Let's do it.
  • FIG. 29 is a flowchart showing a storage process of position information or track information.
  • the image processing unit 13 receives input information for setting a selection region in a wide-field image acquired in real time from the imaging unit 11 or in a wide-field image based on image data read from the storage device 21.
  • the processing control unit 135 of the ST260 Do image processing unit 13 generates position information of the selected area according to the input information, or generates trajectory information when a selection area switching operation is performed. Thus, it is possible to reproduce the switching of the selected area (ST2602).
  • Unit 135 stores the generated position information or trajectory information in storage device 21 (ST2603).
  • Such a form is effective when, for example, an image in a predetermined range or an image with a trajectory in a certain range is required in a certain place.
  • an image in a predetermined range or an image with a trajectory in a certain range is required in a certain place.
  • the imaging unit 11 is mounted on a security fixed point monitoring camera, it is considered that an image of a certain predetermined range or an image of a certain range of trajectory is required from the wide-field image.
  • the user can display the selection area display of that range or the range.
  • the image can always be monitored as a display image on the display unit 14.
  • the image in the predetermined range may be a still image or a moving image. It can be stored as a moving image from the start point to the end point of the trajectory, whether it is an image of a trajectory in a certain range or a still image at a position on the trajectory.
  • the image processing unit 13 is excluded from processing such as outputting the image after distortion correction processing as a still image.
  • FIG. 30 is a diagram for explaining a method for setting a trajectory of a predetermined range as described above as an embodiment using the storage device 21.
  • the user sets the selection area for the wide-field image and switches the position of the selection area.
  • the image processing unit 13 operates the “select” buttons Gual and Gubl.
  • the position information of the selected area at this time is stored in the storage device 21 according to the input information shown. For example, if the “Select” button Gual, Gubl is operated when the image area ARs corresponding to the selected area is set to the position a on the wide-field image Gc, the selection at this time is performed.
  • the position information of the selection area is stored.
  • the trajectory may be set in advance by a program, or the trajectory is generated by automatic recognition by the various sensors described above. Also good.
  • the trajectory may be one in which the selection area is set so that the image area ARs is provided at discontinuous points such as positions a, b, c, and d shown in FIG. 30, or from position a to position d.
  • the selection area may be set so as to be continuous.
  • the selection area is set so that the image area ARs is provided at the position where each point at positions a, b, c, and d is interpolated.
  • the image processing unit 13 may include a program to be set.
  • FIG. 31 is a block diagram showing a configuration of an image processing system according to still another embodiment of the present invention.
  • the image processing system 30 includes a storage device 21 that the imaging unit 11 described above has.
  • the storage device 21 stores a wide-field image in advance as described above, for example.
  • the image processing unit 13 can read the image data DVm of the wide-field image, and can obtain the selected region display image from the wide-field image by developing processing.
  • the image processing unit 13 obtains a selection area display image by performing development processing from a wide-field image based on image data stored in advance in the storage device 21, and the wide-field image is displayed. It is also possible to store the image and the selected area display image in the storage device 21 in association with each other. Alternatively, the image processing unit 13 associates a wide-field image based on pre-stored image data with information indicating a selection area that is an area to be expanded from the wide-field image, and stores it in the storage device 21. It is also possible to keep it.
  • the whole image Gcp and the selection area display image Gsc displayed on the display unit 14 may be alternately displayed on the display unit 14 at predetermined time intervals. In that case, if some operation input from the user is matched, both the entire image Gcp and the selected area display image Gsc may be displayed.
  • the image sensor 112, the input unit 12, the image processing unit 13, the display unit 14, the storage device 21 and the like of the image capturing unit 11 are the Internet, a LAN (Local Area Network), or a dedicated device. They are connected via a network such as a line.
  • LAN Local Area Network
  • the image processing system includes, for example, a security system, a teleconference system, a system for inspection, management, testing, etc. of machines and facilities, a road traffic system, a mobile camera (for example, a moving vehicle).
  • a security system for example, a teleconference system
  • a system for inspection, management, testing, etc. of machines and facilities for example, a road traffic system
  • a mobile camera for example, a moving vehicle
  • a system that uses a camera for imaging a flying object or other moving body force, a nursing care, or a medical system.
  • the process control unit 135 of the image processing unit 13 can switch the region selection mode MS according to the installation direction (installation angle) of the imaging unit 11.
  • the configuration and operation of the image processing system 40 in this case will be described.
  • FIG. 32 is a block diagram showing a configuration of an image processing system according to still another embodiment of the present invention.
  • the image processing system 40 detects the incident direction of the optical image incident on the imaging optical unit 111 in addition to the components of the image processing system 10 shown in FIG.
  • a direction detection sensor such as a gyro sensor 41 is provided.
  • the gyro sensor 41 is fixed to the imaging optical unit 111, detects the incident direction of the optical image incident on the imaging optical unit 111, and performs image processing on the sensor signal ES indicating the direction detection result. This is supplied to the processing control unit 135 of the unit 13.
  • the imaging unit 11 is configured by integrating the imaging optical unit 111, the imaging device 112, and the gyro sensor 41! The
  • FIG. 33 is a diagram conceptually showing how the area selection mode MS is switched in accordance with the installation direction of the imaging unit 11 in the present embodiment.
  • the installation mode of the imaging unit 11 is as shown in Fig. 10 described above, where the imaging unit 11 is installed on the ground, the floor, a desk, etc. to capture a desired subject HM (upper hemisphere field of view, (A) in Fig. 33)
  • HM upper hemisphere field of view
  • FIG. 33 front hemisphere view, Fig. 33 (B)
  • the subject is installed on the ceiling or in the air.
  • imaging HM lower hemisphere field of view, (C) in Fig. 33
  • the processing control unit 135 of the image processing unit 13 determines the area selection mode MS according to the angle in the vertical direction in the imaging unit 11 determined based on the sensor signal of the direction detection sensor force! Set and switch automatically.
  • the area selection mode MS is switched to the polar coordinate mode MS2 when the imaging unit 11 is in the upper hemisphere field and the lower hemisphere field, and the orthogonal coordinate mode MS1 when it is in the front hemisphere field. Switch to.
  • the imaging unit 11 is in the upper or lower hemisphere field of view, it is possible to observe the surroundings more easily and more uniformly than the subject in the center of the wide-field image Gc. It becomes.
  • setting the Cartesian coordinate mode MS 1 makes it easy to view the subject at the center of the wide-field image Gc in detail and to move the subject vertically and horizontally. Can be observed.
  • the imaging unit 11 is installed so as to have an upper hemisphere field of view, and the state where the area selection mode MS is the polar coordinate mode MS2 is S, and FIG. (B)
  • the imaging unit 11 is placed in the front hemisphere field of view, the region selection mode MS is in the orthogonal coordinate mode MS1, and the imaging unit 11 is in the lower hemisphere field of view as shown in Fig. 33 (C).
  • the state where the area selection mode MS is set to the polar coordinate mode MS2 is called S.
  • FIG. 34 illustrates a method for setting a threshold for switching between states S 1, S, and S.
  • the force which is one of the states S, S and S is discriminated, and the region selection mode is determined based on the discrimination result.
  • the threshold ⁇ is the state S or
  • 5 6 3 0 is the threshold for switching from state S to state S, and threshold ⁇ is switched from state S to state S
  • the threshold ⁇ is a threshold for switching from state S to state S.
  • the threshold ⁇ is a threshold for switching to the state S force state S. This includes the thresholds ⁇ and ⁇ .
  • the threshold ⁇ is 45 degrees, for example, and the threshold ⁇ is 135 degrees, for example.
  • the threshold values ⁇ , ⁇ , ⁇ , ⁇ are limited to the above ⁇ 10 degrees.
  • the absolute value of each difference from 6 may be set differently.
  • FIG. 35 shows the operation when the image processing system 40 switches between states S, S, and S.
  • the processing control unit 135 of the image processing unit 13 acquires the measurement result of the gyro sensor 41 at this time (ST3201).
  • the imaging unit 11 is installed at a desired position.
  • the processing control unit 135 acquires the measurement result of the gyro sensor 41 at this time, and measures the current angle ⁇ from this measurement result and the measurement result acquired in ST3201 (ST3202).
  • the process control unit 135 determines whether or not the current angle ⁇ is equal to or smaller than a threshold value ⁇ (
  • the process control unit 135 determines that the state is in the above S state, and selects the region selection mode MS
  • the region selection mode MS is set to the polar coordinate mode MS 2 in the lower hemisphere field of view (ST3212).
  • the process control unit 135 determines that the imaging unit 11 has been changed to the state S.
  • the area selection mode MS is set to the orthogonal coordinate mode MS1 (ST3208).
  • is ⁇
  • the process control unit 135 maintains the state of the polar coordinate mode MS2 (ST3204).
  • the processing control unit 135 After setting the region selection mode MS to the orthogonal coordinate mode MS 1 in ST3208, the processing control unit 135 reads the current angle ⁇ from the gyro sensor 41 again (ST3209),
  • the process control unit 135 determines that the imaging unit 11 has been changed to the state S described above.
  • the area selection mode MS is set to the polar coordinate mode MS2 (ST3204).
  • the process control unit 135 determines that the imaging unit 11 has been changed to the state S.
  • Selection mode MS is set to polar coordinate mode MS2 (ST3212). If ⁇ is ⁇ ( ⁇
  • the process control unit 135 maintains the state of the orthogonal coordinate mode MSI (ST3208).
  • the processing control unit 135 After setting the region selection mode MS to the polar coordinate mode MS2 in ST3212, the processing control unit 135 reads the current angle ⁇ from the gyro sensor 41 again (ST3213), and
  • the process control unit 135 determines that the imaging unit 11 has been changed to the state S, and Set area selection mode MS to Cartesian coordinate mode MS 1 (ST3208)
  • processing control unit 135 operates in polar coordinate mode.
  • the processing control unit 135 automatically switches the region selection mode MS according to the installation angle of the imaging unit 11 by repeating the above operation.
  • the angle of Pan (rotation about the z-axis) of the display plane 81 is set to H (x-axis direction).
  • the angle of Tilt (rotation around the X axis or y axis) is V (X axis direction is 0 degree).
  • the coordinate axes in FIG. 36 (A) are as follows: x-axis ⁇ y-axis y-axis ⁇ z-axis, ⁇ -axis ⁇ axis
  • the angles at which the Pan angle (H) and Ti It angle (V) in Fig. 36 (A) are rotated are respectively set as the Pan angle (h) and Tilt angle (v).
  • the direction vector [D] representing the set direction of the selected area corresponding to the image displayed on the display unit 14 is shown in FIG. 37 due to the rotation of the unit vector in the X-axis direction in each coordinate system. Calculated in rows. Accordingly, the sin value and the cos value of the rotated Pan angle (h) and Tilt angle (V) in the orthogonal coordinate mode MS1 are obtained as follows.
  • the display unit 14 is a fixed unit such as a VGA (Video Graphics Arrav) display.
  • VGA Video Graphics Arrav
  • the display plane [a] is perpendicular to the x-axis and each point sequence is parallel to the y-axis and z-axis.
  • the plane [a] can be expressed as 3D.
  • [0149] [( ⁇ , yO), (xl, yO), ⁇ ⁇ ⁇ (xN, yM)]
  • ⁇ [A] [(xO, yO, 1), (xl, yO, 1), ... (xN, yM, 1)]
  • the plane [PO] is determined by the parameters that can be set on the operation input screen Gu in FIGS. 15A and 15B as shown in FIG. Enlarge and move on a spherical surface as shown in (B).
  • the moved plane is plane [P2]
  • the point on plane [P2] corresponding to point Pj on plane [PO] is point Pj2 (x2, y2, z2).
  • Each point on this plane [P2] is represented by the [ ⁇ ], [ ⁇ 2], [ ⁇ ], [ ⁇ ], [ ⁇ ], [ ⁇ ] and [ ⁇ ] matrices shown in (C) of FIG. 3 Calculated according to 9 (D).
  • the coordinate values (x2, y2, z2) corresponding to the coordinate value force point Pj2 of plane [P2] calculated in this way are used.
  • the point Pj2 (x2, y2, z2) force on the plane [P2] is also processed in the same manner as the principle of the distortion correction processing using FIG.
  • the imaging point Qj2 corresponding to Pj2 (x2, y2, z2) can be found.
  • the selected region display image Gsc which is the image after the distortion correction processing in the orthogonal coordinate mode MS1 and the polar coordinate mode MS2, is performed on the image sensor 112. Each pixel position is obtained, and the pixel data at the obtained pixel position is used to select a pixel that is not distorted.
  • the area display image Gsc can be displayed.
  • the installation angle of the imaging unit 11 is detected by the gyro sensor 41, and the region selection mode MS is determined according to the installation angle. Can be switched as appropriate, and the convenience of the user is improved.
  • the region selection mode MS is switched while providing hysteresis, when the installation angle fluctuates in the vicinity of the threshold value ⁇ and the threshold value ⁇ , it responds to the fluctuation.
  • the installation angle of the imaging unit 11 may be detected by using another sensor such as a gravity sensor instead of the gyro sensor 41 as the direction detection sensor.
  • the force used to switch the region selection mode MS according to the installation angle of the imaging unit 11 for example, the region selection according to whether or not the imaging unit 11 has touched an object. You can change the mode MS.
  • FIG. 40 is a diagram conceptually showing a method of switching the display mode in accordance with contact.
  • the processing control unit 135 sets the polar coordinate mode MS2 in the piping 95 to image the surroundings of the piping 95, for example. .
  • the processing control unit 135 may be switched to the orthogonal coordinate mode MS1 in order to image the wall surface.
  • the image processing system may be provided with a detection sensor for detecting contact, and the detection result may be input to the processing control unit 135 of the image processing unit 13.
  • the detection sensor may be a mechanical sensor or an optical sensor.
  • the automatic switching between the orthogonal coordinate mode MS1 and the polar coordinate mode MS2 can also be performed without using a direction detection sensor or a detection sensor. Next, the case where automatic switching between the orthogonal coordinate mode MS1 and the polar coordinate mode MS2 without using a sensor will be described.
  • FIG. 41 shows a case where a field of view of 270 degrees is obtained by using an ultra-wide angle lens as the imaging optical unit 111.
  • the light incident on the imaging optical unit 111 A wide field image Gc having a field of 270 degrees is formed on the sensor surface of the image sensor 112 in the direction of the image element 112.
  • FIG. 43 shows an installation example of the imaging unit 11 having a field of view of 270 degrees.
  • the imaging unit 11 is provided at the tip of the ship so that the center direction of the visual field is 45 degrees upward with respect to the horizontal direction.
  • a seat FS is provided behind the imaging unit 11.
  • the image processing unit 13 automatically switches the region selection mode MS according to which direction the selection region is set, and the distortion of the imaging optical unit 111 is corrected! / Can be displayed on the display unit 14.
  • the selection area is set by specifying the direction of the selection area or the angle range indicating the selection area by the input information PS or the like
  • the selection area is set based on the input information or the like specifying the selection area.
  • the direction of the selected area can be determined. Further, as described above, since the selection area and the image area ARs correspond to each other! /, The setting direction of the selection area can be determined from the image position of the image area ARs on which the distortion correction processing is performed.
  • FIG. 44 shows a case where the area selection mode MS is automatically switched according to the setting direction of the selection area.
  • a wide-field image Gc having a field of view of 270 degrees is as shown in FIG.
  • the center of the wide-field image Gc is the optical axis direction of the imaging optical unit 111, and when the imaging unit 11 is provided so that the center direction of the visual field is 45 degrees upward with respect to the horizontal direction, the horizontal direction
  • the frontal position of This is the point Pf on the image corresponding to degrees.
  • an area AS1 is provided so as to include the front front image, and the image area ARs
  • the orthogonal coordinate mode MS1 is set.
  • an area AS2 is provided so as to include the rear image, and when the direction of the selected area is set so that, for example, the center position of the image area ARs is included in the area AS2, the polar coordinate mode MS2 is set. Note that when the center position of the image area ARs is not included in the areas AS1 and AS2, the set area selection mode MS is retained.
  • an area selection mode MS is set in which the area of the wide-field image Gc is divided in advance in a matrix and set for each area.
  • the area selection mode MS may be set according to which area the central position is included in.
  • the orthogonal coordinate mode MS1 is assigned to each area ASml including the front image as the area selection mode MS to be set.
  • the polar coordinate mode MS2 is assigned to each area ASm2 including the rear image as the area selection mode MS to be set.
  • the orthogonal coordinate mode MS1 is set.
  • the polar coordinate mode MS2 is set.
  • the present invention can be applied to any of image processing systems 10, 20, and 30. Furthermore, the present invention may be applied to an image processing system 40 using a sensor.
  • the imaging unit 11 is The area selection mode MS is switched with the same characteristics as when the imaging unit 11 is 45 degrees upward with respect to the horizontal direction. be able to.
  • the area Selection mode MS switching characteristics can be set freely.
  • the area selection mode MS when the area selection mode MS is automatically switched, if the GUI display is set according to each area selection mode, it is set to the V selection area selection mode MS and it can be easily discriminated. .
  • Fig. 45 shows the GUI display and the moving direction of the image area ARs when the area selection mode MS is automatically switched.
  • the rectangular coordinate mode MS1 for example, “Up”, “Down”, “Right”, and “Left” buttons are provided as the direction buttons Gua2 as shown in FIG.
  • FIG. 45 (B) illustrates the moving direction of the image area ARs in the entire image Gcp when the direction button Gua2 is operated.
  • the polar coordinate mode is set to MS2, as shown in (C) of Fig. 45, for example, "Center”, “Outer”, “Right rotation ratio”, “Left rotation” buttons are provided as direction buttons Gud2.
  • the GUI display according to each area selection mode is used, the user can easily determine the force set in the shifted area selection mode. Further, when displaying an image of a subject located in a desired direction on the display unit 14, the user can easily select a direction button.
  • the imaging unit 11 may stop the automatic switching operation according to the tilt angle with respect to the vertical direction (or horizontal direction) and set to either the orthogonal coordinate mode MS1 or the polar coordinate mode MS2. .
  • the angle ⁇ is “337.5 degrees ⁇ ⁇ 22.5 degrees” or “157.5 degrees ⁇ ⁇ ⁇ 202.5 degrees”, regardless of the position of the image area ARs, Set to polar mode MS2.
  • the angle ⁇ is “67.5 degrees ⁇ ⁇ 112.5 degrees” or “247.5 degrees ⁇ ⁇ ⁇ 292.5 degrees”
  • the orthogonal coordinate mode MS1 is set regardless of the position of the image area ARs.
  • Angle ⁇ is 22.5 degrees ⁇ ⁇ 67.5 degrees, 112.5 degrees ⁇ ⁇ 157.5 degrees, 202.5 degrees ⁇ ⁇ 247.5 degrees, 292.5 degrees ⁇ ⁇
  • the mixed mode is automatically set to the orthogonal coordinate mode MS1 or the polar coordinate mode MS2 according to the position of the image area ARs as described above.
  • FIG. 47 is a flowchart showing the region selection mode switching operation including the mixed mode.
  • the processing control unit 135 detects the angle and detects the tilt angle ⁇ of the image pickup unit 11 (S T3301). Next, processing control section 135 determines whether or not to set the mixed mode based on the detected tilt angle ⁇ (ST3302). Here, when the mixed mode is not set (NO), based on the detection result of the angle ⁇ , the processing control unit 135 changes the region selection mode to the orthogonal coordinate mode MS 1! /, Or to the polar coordinate mode MS 2! Set but detect (ST3303). When the mixed mode is set (YES in ST3302), the processing control unit 135 sets the area selection mode to V or deviation of the orthogonal coordinate mode MS1 or polar coordinate mode MS2 based on the position of the selected area. (ST3304).
  • the process control unit 135 sets the area selection mode to the detected coordinate mode (ST3305).
  • processing control section 135 performs GUI display according to the area selection mode set in ST3305, and returns to ST3301 (ST3306).
  • FIG. 48 is a flowchart showing the operation when the direction button is operated.
  • Processing control unit 135 determines whether or not region selection mode MS is set to orthogonal coordinate mode MS 1 (ST3401).
  • the process control unit 135 determines whether or not the direction button operation is performed based on the input information PS (ST3402).
  • the process returns to ST3401, and when it is determined that the direction button operation is performed (YES), it is determined whether or not the “Right” button is operated. Is discriminated (ST3403).
  • the process control unit 135 When determining that the operation is the operation of the "Right” button (YES), the process control unit 135 performs a process of switching the selected area to the position in the right direction, and returns to ST3401 (ST3404). When it is determined that the “Right” button is not operated (NO in ST3403), the process control unit 135 determines whether or not the “Left” button is operated (ST3405).
  • processing control section 135 When determining that the operation is the operation of the "Left” button (YES), processing control section 135 performs processing for switching the selected area to the left position, and returns to ST3401 (ST3406). When it is determined that the “Left” button is not operated (NO in ST3405), the process control unit 135 determines whether or not the “Up” button is operated (ST3407). [0177] When it is determined that the operation is the operation of the "Up” button (YES), process control section 135 performs a process of switching the selected area to the upward position, and returns to ST3401 (ST3408).
  • the process control unit 135 determines that the operation is not an operation of the “Up” button (NO in ST3407), the process control unit 135 determines that the operation is the operation of the “Down” button, and performs a process of switching the selected area to a position in the downward direction. Return (ST3409).
  • the processing control unit 135 determines whether or not the direction button operation is performed based on the input information PS (ST3410).
  • the process returns to ST3401, and when it is determined that the direction button operation has been performed (YES), “Whether the operation is a right rotation button operation or not. Determine (ST3411).
  • the process controller 135 When determining that the operation is the operation of the "Right rotation” button (YES), the process controller 135 performs a process of rotating the selected area in the right direction and returns to ST3401 (ST3412). When it is determined that the operation is not the operation of the right rotation button (NO in ST3411), it is determined whether or not the operation is the operation of the left rotation button (ST3413).
  • the process control unit 135 performs a process of rotating the selected region leftward and returns to ST3401 (ST3414). "When it is determined that the operation is not the operation of the Left rotationj button (NO in ST3413), it is determined whether or not the operation is the operation of the Center button (ST3415).
  • the process control unit 135 When determining that the operation is the operation of the "Center” button (YES), the process control unit 135 performs a process of switching the selected area to the position in the center direction, and returns to ST3401 (ST3416). When the process control unit 135 determines that the operation is not an operation of the “Center” button (NO in ST3415), it is determined that the operation is an operation of the “Outer” button, and the selected region is positioned at an outward position opposite to the center direction. The switching process is performed, and the process returns to ST3401 (ST3417).
  • the selection area can be easily switched in a desired direction. That is, an image of a subject located in a desired direction can be displayed on the screen of the display unit 14 in a state where the distortion of the imaging optical unit 111 is corrected.
  • the image processing system of the present embodiment has the above-described plurality of modes as the display mode MH.
  • the display mode change operation is performed by changing the display mode so that the entire image Gcp is displayed for at least a predetermined time when the selection area is changed or the area selection mode MS is changed. This makes it possible to easily confirm the selected area without the user performing the above.
  • the configuration of the image processing system in the present embodiment is the same as that of the image processing system 40 shown in FIG.
  • FIG. 49 and 50 show the display operation of the entire image Gcp.
  • FIG. 49 shows how the display mode MH is changed in accordance with the selection area switching.
  • FIG. 50 shows the area selection.
  • FIG. 5 is a diagram showing a state in which a display mode MH is changed according to switching of a mode MS.
  • the image processing unit 13 of the image processing system performs the display mode switching to the display mode in which the entire image Gcp is not displayed, or when the display mode is set to the display mode in which the entire image Gcp is not displayed. , Area selection mode Set when MS or selection area is switched! Regardless of the display mode, the display mode is automatically changed to the display mode in which the entire image Gc P is displayed for a predetermined time.
  • FIG. 49A shows a case where the display is performed in the selected image display mode MH2.
  • the entire image Gcp is combined with the display image corresponding to the set display mode, and the combined image is displayed.
  • a new display image is displayed.
  • the display mode MH is changed to the both display mode MH3, and the entire image Gcp is also displayed as shown in FIG.
  • the composition processing of the entire image Gcp is terminated and the entire image Gcp is erased from the display screen.
  • the display mode MH is returned to the selected image display mode MH2, and the entire image Gcp is erased as shown in FIG.
  • the display mode MH is changed to the display mode MH3 for a predetermined time to change the display mode MH3 in FIG. Display in the order of (D) and (A) of FIG.
  • (A) in Fig. 50 is displayed in the selected image display mode MH2, and the polar coordinate mode M
  • the area selection mode MS is switched to the Cartesian coordinate mode MS1
  • the entire image Gcp is combined with the display image corresponding to the set display mode.
  • the display mode MH is changed to the both display mode MH3, and the entire image Gcp is also displayed as shown in FIG.
  • the composition processing of the entire image Gcp is terminated and the entire image Gcp is erased from the display screen.
  • the display mode MH is returned to the selected image display mode MH2, and the entire image Gcp is erased as shown in FIG.
  • Fig. 50 Display is performed in the order of (D) in FIG. 50 and (A) in FIG.
  • the predetermined time is not limited to a force that is several seconds such as 3 seconds or 5 seconds.
  • the image processing unit 13 displays the entire image Gcp not only when the area selection mode MS is switched but also when the selection area switching instruction is issued, and displays the selected area after a predetermined time has elapsed. It is also possible to change the display to only the image Gsc.
  • the image processing unit 13 captures the imaging direction only by changing the display mode for a predetermined period when the selection region is switched by the selection region switching instruction or when the region selection mode MS is switched.
  • the display mode may be changed for a predetermined period also when the image of the image area ARs corresponding to the selected area is changed due to the change in the display area. For example, since the image of the wide-field image Gc changes when the imaging direction by the imaging unit 11 changes, the selected area display image Gsc changes even if the position of the image area ARs on the sensor surface of the image sensor 112 does not change. Will end up. That is, the selected area is changed.
  • the display mode is changed for a predetermined period and the entire image Gcp is displayed. In this way, the user can easily determine how to instruct selection area switching in order to display the image of the subject located in the desired direction on the display unit 14.
  • FIG. 51 shows an image processing system when the display mode shown in FIG. 49 or 50 is changed. It is the flowchart which showed the flow of operation
  • the processing control unit 135 of the image processing unit 13 determines whether or not the selected region has been switched (moved) (ST3601). That is, based on whether or not the input information PS indicating the user operation for the direction button Gua2, Gud2 and the direction button Gub2 for instructing the selection area switching is supplied from the input unit 12, or based on the trajectory information described above. If the selected area is automatically switched, it is determined whether or not the selected area is switched.
  • the display control information JH is supplied to the image output processing unit 134, and the entire image Gcp and the selection region display image Gsc are displayed by the image output processing unit 134.
  • the synthesized composite image is displayed on display unit 14 (ST3606).
  • the process control unit 135 determines whether or not a predetermined time has elapsed since the output of the composite image (ST3607). If the predetermined time has elapsed (YES), the display control information!
  • the BJH is supplied to the image output processing unit 134, and is changed to the display of the selection area display image Gsc on one screen from which the entire image Gcp is deleted from the composite image (ST3608).
  • the image output processing unit 134 is controlled by the processing control unit 135, and the display mode MH is changed from the display mode MH3 to the selected image display mode MH2 after a predetermined time has elapsed, as shown in FIGS. Change to
  • the processing control unit 135 of the image processing unit 13 determines whether or not the selection region has been switched and determines that the selection region has not been switched (NO)
  • the processing control unit 135 displays Indication mode MH and area selection mode
  • the power of whether or not there is mode switching that is, input information PS indicating user operation for the above-mentioned “selection” button Gual, Gubl and “Menu” button Guc3 for switching the mode It is determined whether or not the cover is supplied from 12 (ST3 602).
  • the processing after ST3606 is performed.
  • the image processing unit 13 determines whether or not there is a change in the posture (installation angle) of the imaging unit 11 (ST3603). That is, the process control unit 135 determines, for example, the difference between the detection result and a predetermined initial value based on the sensor signal ES indicating the tilt angle detected by the gyro sensor 41 shown in FIG. When there is a change in the installation angle of the imaging unit 11 (YES), the image processing unit 13 performs the processing after ST3606.
  • the processing control unit 135 does not change the installation angle of the imaging unit 11 in ST3603. If it is determined (NO), it is determined whether or not there is any user operation on the input unit 12, and if there is a user operation (YES), the processing after ST3606 is performed, and the user operation is not performed. If not (NO), repeat the process after ST3601. Note that the user operation is the same as the process of ST3601 or ST3602 when the display mode MH or the area selection mode MS is switched or the selection area is switched. User operations are judged for other operations.
  • FIG. 51 when it is determined that there is no selection area switching, whether there is mode switching, whether there is a posture change, and whether there is an operation input.
  • ST3605 shown in Fig. 52 it is determined whether there is any of selection area switching, mode switching, posture change, or operation input. Even if the processing from is performed, the entire image Gcp can be displayed for a predetermined time.
  • the entire image Gcp is at least predetermined.
  • the display is performed so that the time display state is obtained. Therefore, when the user switches the selected area or changes the mode, how the selected area is set! It can be easily confirmed by the enhanced image Gs of the image area ARs in the whole image Gcp, and after the confirmation, the selected area display image Gsc can be observed without being disturbed by the whole image Gcp. .
  • the image processing unit 13 first displays the entire image Gcp in both display modes MH3 and then switches to the selected image display mode MH2 without the entire image Gcp after a predetermined time has elapsed.
  • mode MH and area selection mode MS, etc. first, only the selected area display image Gsc is output in the selected image display mode MH2, and after the predetermined time has elapsed, both the combined images Gcp are displayed.
  • Image data DVd may be generated so that a composite image is displayed in mode MH3.
  • the selection area display image Gsc displayed on the display unit 14 is confirmed without blind spots, and then the selection area display image Gsc that has been displayed after a predetermined time has elapsed is observed to determine the current selection area. To check Togashi.
  • FIG. 53 is a diagram showing another form of the display mode switching process.
  • the image processing unit 13 may reduce the selection region display image Gsc as a composite image and output it side by side so that it does not overlap with the entire image Gcp. It's okay!
  • the entire image Gcp may be synthesized and output in a semi-transparent state on the selection area display image Gsc.
  • the image processing unit 13 does not have to display the entire image Gcp, and may perform processing so that the user S can observe the selected region display image Gsc without blind spots.
  • the image processing unit 13 may dynamically change the predetermined time without setting the predetermined time. For example, when the area selection mode MS is switched, the position of the selection area may change significantly. In this case, the predetermined area is switched or imaged in the same area selection mode MS in that case. It may be longer than the predetermined time when the posture of the unit 11 is changed, so that the user can confirm the selected area with certainty. Also, for example, if the number of divided areas increases in the divided display mode MH4, it may take time to confirm a plurality of selected areas, so the number of divided areas increases (the number of emphasized images Gs in the entire image Gcp). If the user performs an operation that increases the time), the user may be able to confirm the selected area by making the predetermined time longer than when switching modes or changing postures! ,.
  • the first area selection mode for selecting a selection area indicating a partial area of the visual field using the orthogonal coordinate system with respect to the visual field represented by the image data, and the image data.
  • a second region selection mode is provided for selecting a selected region indicating a partial region of the field of view using the polar coordinate system, and the set first or second region selection mode. Then, distortion correction of the image data corresponding to the selected area selected is performed. For this reason, it is suitable when a desired area is set as a selection area for the captured wide-angle image and confirmation of an image in the selection area is performed.

Abstract

 被写体からの光学像を歪を与える撮像光学部を介して撮像することで得られる、撮像光学部の歪を含む画像データを処理する画像処理装置において、領域選択モード設定部(13b)は、画像データで表される視野に対して、直交座標系を用いて視野の一部の領域を示す選択領域を選択する第1の領域選択モードと、画像データで表される視野に対して、極座標系を用いて視野の一部の領域を示す選択領域を選択する第2の領域選択モードとを選択的に設定する。歪補正部(13a)は、領域選択モード設定部13bで設定された第1又は第2の領域選択モードにおいて選択された選択領域に相当する画像データを歪補正して被歪補正データを得る。データ出力部(13d)は被歪補正データを出力する。

Description

画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記 録した記録媒体
技術分野
[0001] 本発明は、撮像された広視野画像を処理する画像処理装置、画像処理方法、その プログラム及び記録媒体に関する。
背景技術
[0002] 従来から、例えば魚眼レンズを用いて撮像された画像中、ユーザにより必要な領域 が指定され、指定された領域の魚眼画像データの歪曲収差の補正がなされ、補正さ れた画像がモニタで表示される、という技術が提案されている。撮像された画像は、 静止画だけでなく動画もある(例えば、日本特開 2000— 324386号公報(明細書段 落 [0009]、図 1)参照。)。
[0003] 上記日本特開 2000— 324386号公報に記載の装置において、ユーザが、カメラ で撮像した画像中から領域を指定するときの指定方法をもっと工夫すれば、さらに便 禾 IJになることが予想される。このようにカメラが用いられたシステムは、将来の幅広い 応用が期待されて 、ることから、ユーザにとって使 、やす 、インタフェースを提供する ことが重要な課題となる。
発明の開示
[0004] 本発明に係る画像処理装置は、被写体からの光学像を歪を与える撮像光学部を介 して撮像することで得られる、撮像光学部の歪を含む画像データを処理する画像処 理装置において、画像データで表される視野に対して、直交座標系を用いて視野の 一部の領域を示す選択領域を選択する第 1の領域選択モードと、画像データで表さ れる視野に対して、極座標系を用いて視野の一部の領域を示す選択領域を選択す る第 2の領域選択モードとを選択的に設定する領域選択モード設定部と、領域選択 モード設定部で設定された第 1又は第 2の領域選択モードにおいて選択された選択 領域に相当する画像データを歪補正することにより得た被歪補正データを出力する データ出力部とを備える。 [0005] 本発明では、領域選択モードとして第 1の領域選択モードと第 2の領域選択モード が設けられており、そのうち 1つの領域選択モードで選択領域の設定や切り替えを行 う。これにより、ユーザにとって便利で使いやすい画像処理装置が実現される。領域 選択モードは、例えばユーザの好みの領域選択モードに設定するものとしてもよ!/、し 、撮像される場所、環境、又は目的等に応じて設定するようにしてもよい。あるいは、 予め設定された領域選択モードに設定するものとしてもよい。このようにして、領域選 択モードを選択的に設定して、設定された領域選択モードで選択領域の設定や切り 替えを行う。なお、被写体画像は、主に動画を意味するが、もちろん静止画も含まれ る。
[0006] 本発明にお ヽて、第 1の領域選択モードが選択される場合、選択領域が直交座標 系を用いて切り替えられるので、例えば人間が普通に見る視野、つまり上下左右のあ る風景等の画像が撮像される場合に特に有効である。すなわち、このような場合に第
1の領域選択モードを選択することで、人間にとって直感性の高い操作が可能となる 。一方、第 2の領域選択モードが選択される場合、選択領域が極座標系を用いて切 り替えられるので、例えば水平面から上方向又は下方向に臨むような視野の画像が 撮像される場合に特に有効である。すなわち、このような場合に第 2の領域選択モー ドを選択することで、人間にとって直感性の高い操作が可能となる。
[0007] 本発明にお ヽて、画像処理装置で用いる画像データは、撮像光学部と該撮像光学 部を介して入射する被写体画像の画像データを生成する撮像素子を有する撮像部 から出力される画像データでもよぐまた、撮像光学部を介して入射する被写体画像 の画像データを記憶した記憶装置力 読み出された画像データであってもよ 、。この 撮像部や記憶装置は、画像処理装置と一体に設けられていても、また別個に設けら れていてもよい。さらに、撮像部と記憶装置のいずれか一方のみを用いる構成であつ てもよい
[0008] 撮像部を用いるものとすれば、例えばリアルタイムに得られる広視野の被写体画像 から視野の一部の領域を示す選択領域の画像を、歪みを生じさせることなく表示する ことができる。また、記憶装置を用いるものとすれば、例えば既に撮影されている広視 野の被写体画像から選択領域の画像を、歪みを生じさせることなく表示することがで きる。さらに、撮像部と記憶装置を用いるものとすれば、リアルタイムの画像と過去の 画像を 1度に視認することができ、便利である。
[0009] 本発明において、画像処理装置は、撮像光学部に入射する光学像の入射方向を 検出する方向検出センサを設けて、この方向検出センサ力ものセンサ信号に基づき 、第 1の領域選択モード又は第 2の領域選択モードに設定するものとしてもよい。また 、方向検出センサ力 のセンサ信号に基づいて判別した鉛直方向に対する角度に 応じて、領域選択モードの設定を行うものとしてもよい。これにより、撮像光学部による 撮像方向に応じて領域選択モードを切り替えることができるため、例えば被写体を上 方、下方、水平方向のいずれの方向から撮像するかに応じて適切な領域選択モード を選択することができ、ユーザの利便性が向上する。例えば撮像光学部に入射する 光学像の入射方向が鉛直方向である場合の角度を 0度とした場合、検出した角度が 45度未満又は 135度以上の場合には第 2の領域選択モード、 45度以上 135度未満 の場合には第 1の領域選択モードというように切り替えられる。
[0010] さらに、角度が第 1の閾値を超えたか否かに応じて第 1の領域設定モードから第 2 の領域設定モードへ切り替え、角度が第 1の閾値とは異なる第 2の閾値を超えたか否 力に応じて第 2の領域選択モードから第 1の領域選択モードへ切り替えを行うようにし ても構わない。このように、第 1の領域選択モードから第 2の領域選択モードへ切り替 える場合の閾値と、第 2の領域選択モードから第 1の領域選択モードへ切り替える場 合の閾値とを異ならせてヒステリシスを持たせることで、 1つの閾値付近における傾斜 角度の揺らぎによりモードが頻繁に切り替わってユーザに混乱を与えることを回避す ることがでさる。
[0011] 本発明において、画像処理装置は、物体の接触を検知する検知センサを設けて、 接触が検知されたか否かに応じて、第 1の領域選択モードと第 2の領域選択モードと を切り替えるようにしてもょ 、。
[0012] これにより、撮像光学部を移動させながら撮像する場合に、撮像光学部と被写体と の距離に応じて領域選択モードを切り替えることができるため、例えば接触を検知し ない間は第 2の領域選択モード、検知した場合には第 1の領域選択モードというよう に、ユーザの用途に応じた適切なモード切替を実現できる。 [0013] また、画像処理装置では、選択領域の設定状態に応じて第 1の領域選択モード又 は第 2の領域選択モードに設定される。これにより、選択領域がどのように設定されて いるかに応じて、領域選択モードを自動的に切り替えることが可能となる。さらに、領 域選択モードに応じて GUI (Graphical User Interface)の表示を切り替えることで、い ずれの領域選択モードに設定されて!、るかを容易に判別できる。
[0014] 本発明に係る画像処理方法は、被写体からの光学像を歪を与える撮像光学部を介 して撮像することで得られる、前記撮像光学部の歪を含む画像データを処理する画 像処理方法において、前記画像データで表される視野に対して、直交座標系を用い て前記視野の一部の領域を示す選択領域を選択する第 1の領域選択モードと、前記 画像データで表される視野に対して、極座標系を用いて前記視野の一部の領域を 示す選択領域を選択する第 2の領域選択モードとを選択的に設定する領域選択モ ード設定ステップと、前記領域選択モード設定ステップで設定された第 1又は第 2の 領域選択モードで選択された選択領域に相当する前記画像データを歪補正すること により得た被歪補正データを出力するデータ出力ステップとを備える。この発明は、 プログラムの発明やそのプログラムを記録した記録媒体の発明にも適用できる。
[0015] 以上のように、本発明によれば、被写体力もの光学像を歪を与える撮像光学部を介 して撮像することで得られる、前記撮像光学部の歪を含む画像データを用いて、この 画像データで表される視野の一部の領域の画像の再生を行う場合に、ユーザにとつ て便利で使!ヽやす!ヽ画像処理装置、又は画像処理方法等を実現することができる。 図面の簡単な説明
[0016] [図 1]本発明の一実施の形態に係る画像処理システムの構成を示すブロック図である
[図 2]撮像素子に形成される被写体画像と選択領域の関係を説明するための図であ る。
[図 3]画像処理部の機能構成を示すブロック図である。
[図 4]表示モード及び領域選択モードを説明するための図である。
[図 5]画像処理部の具体的構成を例示したブロック図である。
[図 6]全体画像を示す図である。 [図 7]表示部に表示される画像の一例を示す図である。
[図 8]処理制御部の動作を示すフローチャートである。
圆 9]視野を三次元空間の球面として示す図である。
圆 10]撮像部により撮像されるときの視野 (撮像範囲)をそれぞれ示す図である。 圆 11]レンズの像高特性を説明するための図である。
[図 12]歪補正処理の原理を説明するための図である。
圆 13]領域選択モードのうち、直交座標モードでの動作を説明するための図である。 圆 14]領域選択モードのうち、極座標モードでの動作を説明するための図である。 圆 15]ユーザが、入力部を用いて選択領域の変更指示を行う際に表示される GUIの 一例を示している。
圆 16]直交座標モードが選択されているときに選択領域の切り替え指示が行われた 場合を説明するための図である。
圆 17]直交座標モードが選択されている場合に、表示モードが順に切り替えられると きの表示部 14に表示される表示画像を示す。
[図 18]極座標モードが選択されているときの、表示部の表示画像を示す図である。 圆 19]極座標モードが選択されているときの、切り替え指示後の表示画像を示す図 である。
[図 20]極座標モードが選択されているときの、表示部の表示画像を示す図であり、分 割表示モードの表示を上下逆にする場合を説明するための図である。
圆 21]分割表示モードを選択可能としたときの表示モードの切り替えの遷移を示した 図である。
圆 22]選択領域表示画像の拡大 Z縮小処理を説明するための図である。
圆 23]回転の操作指示前の状態を示した図である。
圆 24]選択領域の画像の回転処理を説明するための図である。
圆 25]同じく選択領域の画像の回転処理を説明するための図である。
[図 26]本発明の他の実施の形態に係る画像処理システムの構成を示すブロック図で ある。
[図 27]図 26で示した画像処理システムが行う処理の一例を示すフローチャートであ る。
[図 28]図 26で示した画像処理システムが行う処理の他の例を示すフローチャートで ある。
[図 29]位置情報又は軌跡情報の記憶処理を示すフローチャートである。
[図 30]図 29で示したフローで、表示画像上の所定範囲の軌跡を説明するための図 である。
[図 31]本発明のさらに別の実施の形態に係る画像処理システムの構成を示すブロッ ク図である。
圆 32]本発明のまたさらに別の実施形態に係る画像処理システムの構成を示すプロ ック図である。
[図 33]図 32の画像処理システムにおいて、撮像部 11の設置方向に応じて領域選択 モード MSを切り替える様子を概念的に示した図である。
[図 34]図 33の状態 S , S , Sを切り替えるための閾値の設定方法について説明した
0 1 2
図である。
[図 35]図 32の画像処理システム 40が状態 S , S及び Sを切り替える場合の動作の
0 1 2
流れを示したフローチャートである。
[図 36]図 32の画像処理システムが直交座標モードと極座標モードとをそれぞれ設定 する場合の座標計算方法について説明した図である。
[図 37]図 32の画像処理システムが直交座標モードと極座標モードとをそれぞれ設定 する場合の座標計算方法について説明した図である。
[図 38]図 32の画像処理システムが直交座標モードと極座標モードとをそれぞれ設定 する場合の座標計算方法について説明した図である。
[図 39]図 32の画像処理システムが直交座標モードと極座標モードとをそれぞれ設定 する場合の座標計算方法について説明した図である。
圆 40]接触に応じて表示モードを切り替える方法を概念的に示した図である。
圆 41]撮像光学部で 270度の視野を得た場合を示した図である。
[図 42]撮像方向を水平方向に対して 45度上向きにした状態を示した図である。
[図 43]撮像部の設置例を示した図である。 [図 44]領域選択モードの自動切り替えを説明するための図である。
[図 45]領域選択モードを自動的に切り替える場合の GUI表示と画像領域の移動方 向を示した図である。
[図 46]混合モードを含めた領域選択モードの切り替え動作を説明するための図であ る。
[図 47]混合モードを含めた領域選択モードの切り替え動作を示すフローチャートであ る。
[図 48]方向ボタンが操作されたときの動作を示すフローチャートである。
[図 49]本発明のさらに別の実施形態において、選択領域の切り替えに応じて表示モ ード MHを変更する様子を示した図である。
[図 50]本発明のさらに別の実施形態において、領域選択モード MSの切り替え変化 に応じて表示モード MHを変更する様子を示した図である。
[図 51]表示モード切替処理を行う場合の画像処理システムの動作の流れを示したフ ローチャートである。
[図 52]表示モード切替処理を行う場合の画像処理システムの動作の他の流れを示し たフローチャートである。
[図 53]表示モード切替処理の別の形態を示した図である。
発明を実施するための最良の形態
[0017] 以下、本発明の実施の形態を図面に基づき説明する。
[0018] 図 1は、本発明の一実施の形態に係る画像処理システムの構成を示すブロック図 である。
[0019] 画像処理システム 10は、撮像部 11、入力部 12、画像処理部 13、表示部 14を備え ている。また、撮像部 11は、撮像光学部 111と撮像素子 112を用いて構成されてい る。
[0020] 撮像光学部 111は、被写体画像を撮像素子 112の撮像面に結像させるためのもの である。ここで、撮像光学部 111は、広視野の被写体画像を撮像素子 112の撮像面 に結像させるために例えば広角レンズを用いる。広角レンズとしては、画角がおよそ 4 5度以上のものが用いられる力 これに限られるわけではない。また、撮像光学部 11 1は、魚眼レンズや PAL (Panoramic Annular Lens) (環状のレンズ)等を用いて構成 するものとしてよい。さらに、広角レンズを用いる代わりに、筒状,お椀状あるいは円 錐状等のミラーを用いて、広視野の被写体画像がミラーの反射を利用して撮像素子 112の撮像面に結像されるようにしてもよい。また、レンズやミラー等を複数組み合わ せて、視野をさらに広げるようにしてもよい。例えば、画角が 180° 程度の魚眼レンズ を 2つ用いることで、全方位 (球空間(360° ;) )の視野の被写体画像を得ることもでき る。
[0021] 撮像素子 112は、光を電気信号に変換する例えば CCD (Charge Coupled Device) や、 CMOS (Complementary Metal-Oxide Semiconductor)センサ等が用いられる。こ の撮像素子 112は、被写体画像に基づ!/、た画像データ DVaを生成して画像処理部 13に供給する。
[0022] 図 2は、撮像光学部 111に魚眼レンズを用いたとき、撮像素子 112に形成される被 写体画像と選択領域の関係を示して!/、る。撮像光学部 111の画角が例えば 180° 程度であり、視野を図 2の半球状の球面 51として示すことができるとき、撮像素子 11 2に形成される被写体画像 (以下「広視野画像」 t ヽぅ) Gcは、撮像光学部 111によつ て歪を生じた画像例えば円形状の画像となる。このため、撮像素子 112で得られた 画像データ DVaに基づ ヽて画像表示を行うと、表示される画像は撮像光学部 111に よる歪を生じた表示画像となってしまう。ここで、画像データ DVaで表される視野の一 部の領域を示す選択領域を設けたとき、この選択領域は、撮像光学部 111の画角内 では例えば選択領域 71に相当するものとなり、広視野画像 Gcにおいては画像領域 ARsに相当するものとなる。したがって、画像処理部 13は、画像領域 ARsの画像に 対して、撮像光学部 111によって生じた歪を補正する歪補正処理を行うことで、歪の ない選択領域の画像を表示することが可能となる。このため、例えば撮像光学部 111 の画角内において、所望の被写体が含まれるように選択領域の設定を行うことで、歪 のない所望の被写体の画像を表示することが可能となる。さらに、選択領域の位置を 新たな位置に切り替えるものとしたり、選択領域のサイズや形状を変更すれば、選択 領域に対応する画像領域 ARsの位置やサイズ,形状も変更される。したがって、撮像 光学部 111の画角内における任意の位置や領域の画像を、撮像光学部 111の歪を 補正した状態で表示することが可能となる。
[0023] ここで、選択領域は、撮像光学部 111の画角内における選択領域 71の位置や選 択領域 71の範囲を示す角度範囲等を指定することで設定できる。また、広視野画像 Gc上に設定される画像領域 ARsは、上述のように選択領域と対応するものであること から、画像領域 ARsの位置や範囲等を指定することによつても、選択領域を設定でき る。
[0024] なお、魚眼レンズを用いたときには、選択領域が小さ!/、ほど、また、選択領域が視 野の中央に位置するほど、画像領域 ARsの範囲は選択領域の形状に近くなる。反対 に、選択領域が大きいほど、また、選択領域が視野の端に位置するほど、画像領域 ARsの範囲は選択領域に対して歪んだ形になる。
[0025] 入力部 12は、ユーザ操作に応じて選択領域の位置の切り替えや選択領域の領域 サイズや領域形状の変更、選択領域の切り替えを行う際の動作モードや、画像の表 示モードの設定等を行うためのものである。入力部 12は、ユーザが操作できる機器 であれば何でもよい。例えばマウス、キーボード、スィッチ機器、タツチセンサ、ゲーム 機器のコントローラ、ユーザが把持可能なスティック状の操作機器等が挙げられる。こ の入力部 12は、ユーザ操作に応じた入力情報 PSを生成して画像処理部 13に供給 する。
[0026] 画像処理部 13は、撮像部 11から供給された画像データ DVaを用いて歪補正処理 を行 、、撮像光学部 111によって生じた歪が補正されて 、る選択領域の画像を生成 する。また、画像処理部 13は、表示部 14に表示する画像の表示モード設定を行い、 設定された表示モードに応じた表示画像の画像データ DVdを生成して表示部 14に 供給する。なお、画像処理部 13は、表示画像として広視野画像や歪が補正されてい る選択領域の画像等を用いる。さらに、画像処理部 13は、選択領域の位置を切り替 える際の動作モードである領域選択モードの設定を行い、入力部 12からの入力情報 PSに基づき、設定された領域選択モードで選択領域の切り替え処理を行う。また、 画像処理部 13は、最初の動作開始時に予め指定された表示モードや領域選択モー ドに設定する処理や、動作終了時の表示モードや領域選択モードに設定して動作を 開始する処理等も行う。 [0027] 表示部 14は、液晶表示素子や有機 EL素子等で構成されており、画像処理部 13 から供給された画像データ DVdに基づいて画像表示を行う。
[0028] 本実施の形態で示す画像処理システム 10において、撮像部 11、入力部 12、画像 処理部 13、表示部 14は一体ィ匕して設けるものとしてもよぐ個々に分離して設けるも のとしてもよい。さらに、一部のみを一体ィ匕してもよい。例えば入力部 12と表示部 14 を一体化して設けるものとすれば、表示部 14の表示を確認しながら入力部 12の操作 を行うことが容易に可能となる。さらに、撮像部 11においても、撮像光学部 111と撮 像素子 112を一体ィ匕しるものとしたり、分離して設けるようにしてもょ 、。
[0029] 図 3は、画像処理部 13の機能構成を示すブロック図である。画像処理部 13は、歪 補正部 13a、領域選択モード設定部 13b、表示モード設定部 13c、データ出力部 13 d及び制御部 13eを有する。
[0030] 歪補正部 13aは、画像データ DVaにおける選択領域に相当する画像データを用い て、撮像光学部 111の歪を補正する歪補正を行い、被歪補正データの生成を行う。
[0031] 領域選択モード設定部 13bは、選択領域の設定や切り替えを行うときの動作モード である領域選択モードを設定する。この領域選択モード設定部 13bは、例えば図 4に 示すように、領域選択モード MSとして、第 1の領域選択モードである直交座標モード MS1、第 1の領域選択モードである極座標モード MS2を設けておき、いずれかの領 域選択モードを選択的に設定する。なお、各領域選択モードについては後述する。
[0032] 表示モード設定部 13cは、表示部 14で歪補正がなされた画像等を表示する際の 表示モードを設定する。この表示モード設定部 13cでは、例えば図 4に示すように、 表示モード MHとして、全体画像表示モード MH1、選択画像表示モード MH2、両 方表示モード MH3、分割表示モード MH4を設けておき、いずれかの表示モードに 設定する。なお、各表示モードについては後述する。
[0033] データ出力部 13dは、設定された表示モードに応じた表示画像の画像データを出 力する。ここで、撮像光学部 111の歪が補正されている選択領域の画像を表示画像 として表示する場合、被歪補正データの出力を行う。また、広視野画像を表示画像と して表示する場合、撮像部 11から供給された画像データの出力を行う。さらに、撮像 光学部 111の歪が補正されて!ヽる選択領域の画像と広視野画像を表示する場合に は、被歪補正データと撮像部 11から供給された画像データを用いて新たな画像デ ータを生成して出力する。
[0034] 制御部 13eは、領域選択モード設定部 13bで設定された領域選択モード MSに応 じて選択領域の設定や切り替えを行う。
[0035] 図 5は、画像処理部 13の具体的構成を例示したブロック図である。画像データ DVa は、画像抽出処理部 131と歪補正処理部 133に供給される。
[0036] 画像抽出処理部 131は、画像データ DVaから広視野画像 (被写体画像) Gcの画像 データ DVcを抽出して選択領域強調表示処理部 132に供給する。ここで、広視野画 像 Gcは、図 2に示すように、撮像素子 112におけるセンサ面上の一部の領域を示す ものであり、撮像光学部 111によって決定される。このため、センサ面上の広視野画 像 Gcの領域が固定している場合は、画像データ DVaから所定の画素データ抽出を 行って広視野画像 Gcの領域の画素データを抽出する。また、撮像光学部 111が交 換可能でセンサ面上の広視野画像 Gcの領域が変化する場合、あるいは撮像光学部 111の光学特性が変更できるようになされて!、るためセンサ面上の広視野画像 Gcの 領域が変化する場合、センサ面上の広視野画像 Gcの領域を予め判別しておき、判 別されて!ヽる広視野画像 Gcの領域の画像データを抽出する。広視野画像 Gcの領域 の判別は、例えば撮像光学部 111の視野内がすべて白色の被写体となるようにして 撮像を行い、画像データ DVaが白色のレベルとなる画素位置を検出する。このよう〖こ すれば、容易に広視野画像 Gcの領域を判別することができる。
[0037] 選択領域強調表示処理部 132は、広視野画像 Gcにお 、て、後述する処理制御部 135から供給された選択領域設定情 ¾JAに基づき、この選択領域設定情 ¾JAによ つて示された選択領域と対応する画像領域 ARsを、ユーザが容易に識別できるよう に処理する。例えば選択領域強調表示処理部 132は、画像領域 ARsと画像領域 A Rsでない領域との境界を示す境界表示を設けるものとしたり、画像領域 ARsを除い た領域の輝度や色を変更して、画像領域 ARsが識別可能となるように表示制御を行 う。この画像領域 ARsの画像は、識別可能に強調された画像であり強調画像 Gsと呼 ぶものとする。このような画像処理を行い、広視野画像 Gcにおいて、画像領域 ARs が強調画像 Gsとして識別可能とされて ヽる画像 (以下「全体画像 Gcp」 t ヽぅ)の画像 データ DVcpを生成して画像出力処理部 134に供給する。
[0038] 歪補正処理部 133は、図 3に示す歪補正部 13aに相当するものであり、画像データ DVaを用いて撮像光学部 111の歪補正処理を行 、、処理制御部 135から供給され た選択領域設定情 ¾JAによって示された選択領域の歪補正がなされた被補正画像 データ DVscを生成して画像出力処理部 134に供給する。
[0039] 画像出力処理部 134は、図 3に示すデータ出力部 13dに相当するものであり、処理 制御部 135からの表示制御情 ¾JHに基づき、画像データ DVcp及び Z又は被補正 画像データ DVscを用いて表示画像の画像データ DVdを生成する。
[0040] 処理制御部 135は、図 3に示す領域選択モード設定部 13b,表示モード設定部 13 c,制御部 13eに相当するものである。処理制御部 135は、領域選択モードの設定を 行い、設定した領域選択モードに応じて、入力部 12からの入力情報 PSに基づいた 選択領域の設定や切り替えを行!ヽ、設定した選択領域あるいは新たに設定した選択 領域を示す選択領域設定情衞 Aを生成して、選択領域強調表示処理部 132や歪 補正処理部 133に供給する。また、処理制御部 135は、表示モードの設定を行い、 設定した表示モードに応じて表示制御情! BJHを生成して画像出力処理部 134に供 給する。さらに、処理制御部 135は、表示制御情衞 Hによって、表示画像にメニュー 表示を含める処理等も行わせる。
[0041] 画像処理部 13は、例えば CPU (Central Processing Unit)、 RAM (Random Access
Memory)、 ROM (Read Only Memory)等のハードウェア、 ROM等に格納されたソフ トウエア、あるいはファームウェア等で構成される。また、画像処理部 13は、 FPGA(F ield Programmable Gate Arrayノ、ある ヽは DSP (Digital Signal Processor) で構成し て、他にもビデオエンコーダ、サウンドエンコーダ、上記入力情報 PSを取得するため のインタフェース、又は上記表示部 14へ画像データ DVdを出力するためのインタフ エース等を備えてもよい。また、 FPGAと DSPが両方用いられ、両者が処理を分担す るようにしてちょい。
[0042] 入力部 12から画像処理部 13に供給する入力情報 PSとは、上述のように表示モー ド MHや領域選択モード MSの設定、選択領域の切り替え指示等を示す情報である 。また、選択領域の切り替え指示を示す情報には、選択領域を所定方向に所定量単 位で移動させるための情報、変更後の選択領域の位置を示す情報等を含めるものと してもよい。さらに、入力情報 PSには、選択領域の領域サイズを変更する情報、選択 領域を回転させる情報、選択領域の領域形状を設定する情報等を含めるものとして ちょい。
[0043] 選択領域は、ユーザ操作に応じて切り替え等が行われる形態に限られるものでは ない。例えば、上述のように予め指定された位置に選択領域を設定する形態も考え られる。その場合の当該選択領域に関する情報は、予め図示しない ROMや、外部 の記憶装置等に格納されていればよい。さらに、広視野画像 Gc内のある特定の領域 が自動認識される場合に、その自動認識された特定の領域を選択領域に対応する 画像領域 ARsとして処理する形態も考えられる。例えば、動きのある被写体が自動認 識される場合に、この動きのある被写体の画像を含む領域を画像領域 ARsとして自 動的に処理する形態も考えられる。あるいは、図示しない様々なセンサによって、広 視野画像 Gc内で検出された画像領域を選択領域に対応する画像領域 ARsとして処 理する形態もある。その場合、センサとは、例えば温度センサ、音センサ、圧力セン サ、光センサ、湿度センサ、振動センサ、ガスセンサ、その他様々なセンサが挙げら れる。これらのセンサで生成されたセンサ信号は、処理制御部 135に供給されて、処 理制御部 135では供給されたセンサ信号を利用して選択領域の切り替えや各部の 制御を行う。例えば、異常な温度や異常な音等を検出したときには、異常な温度や 異常な音等が検出された方向に対応させて選択領域を自動的に切り替えるものとす れば、表示部 14の画面上に、異常が検出された方向の撮像画像を歪補正された状 態で表示することができる。また、異常の検出に応じて表示モードの切り替えや領域 サイズの切り替え、領域形状の切り替え等を行うものとすれば、異常の確認をユーザ が容易に行えるような表示も可能となる。
[0044] なお、図 5に示す構成は例示的なものであり、画像処理部 13は、図 3に示す機能構 成を有するものであれば、図 5に示す構成に限られるものではない。例えば、撮像部 11から供給される画像データ DVaが広視野画像 Gcのみを示すものであるときは、画 像抽出処理部 131を設ける必要がない。また、選択領域強調表示処理部 132を画 像出力処理部 134の入力側に代えて出力側に設けるものとしてもよい。この場合、画 像データ DVaに基づく画像に広視野画像が含まれるとき、広視野画像において、選 択領域と対応する画像領域を、ユーザが容易に識別できるように処理する。
[0045] 図 6は、全体画像を示している。画像データ DVaに対して画像処理部 13で歪補正 処理を行わない場合、広視野画像 Gcは、撮像光学部 111によって生じた歪みを有 する画像となる。ここで、処理制御部 135によって選択領域が設定された場合、選択 領域強調表示処理部 132は、上述のように選択領域が容易に識別できるように画像 処理を行う。すなわち、表示されている広視野画像 Gcにおいて、選択領域と対応す る画像領域 ARsと画像領域 ARsでな ヽ領域との境界を示す境界表示 (例えば枠表 示)を設けるものとしたり、画像領域 ARsを除いた領域の輝度や色を変更して画像領 域 ARsを強調した強調画像 Gsとする。なお、選択領域を全視野に設定したとき、選 択領域に対応する画像領域 ARsは、広視野画像 Gcの全体を示すものとなる。
[0046] また、処理制御部 135は、表示制御情! BJHによって画像出力処理部 134の動作を 制御して、全体画像表示モード MH1に設定した場合には、図 6に示すように広視野 画像 Gcにお 、て、画像領域 ARsが強調画像 Gsとして識別可能とされて 、る全体画 像 Gcpのみを表示画像とした画像データ DVdを生成させる。また、処理制御部 135 は、選択画像表示モード MH2に設定した場合、画像領域 ARsの画像に対して撮像 光学部 111によって生じた歪の補正が行われて 、る画像 (以下「選択領域表示画像 」という) Gscのみを表示画像とした画像データ DVdを生成させる。また、処理制御部 135は、両方表示モード MH3に設定した場合、図 7に示すように全体画像 Gcpと選 択領域表示画像 Gscが同時に表示された表示画像の画像データ DVdを生成させる 。さらに、選択領域が複数設定される場合には、選択領域に対応する各強調画像の 歪が補正された画像を選択領域表示画像 Gscとして、全体画像 Gcpとともに表示した 表示画像の画像データ DVdを生成させる。ここで、図 7に示すように、全体画像 Gcp と選択領域表示画像 Gscを同時に表示する場合、画像出力処理部 134は、例えば O SD (On Screen Display)等の技術を用いればよい。
[0047] 次に、処理制御部 135の動作を図 8のフローチャートを用いて説明する。処理制御 部 135は、表示モードや領域選択モードの初期設定や選択領域の設定を行う (ST1 001)。例えば、最初の動作開始時には、予め設定されている表示モードや領域選 択モードに設定する。また、選択領域を予め設定されている視野方向に所定サイズ で設定する。また、動作終了時に表示モードや領域選択モードの設定状態や選択 領域の設定状態を示す情報を記憶しておき、この情報を次回の動作開始時に用い て、前回の動作終了時の状態で動作を開始するものとしてもよい。
[0048] 処理制御部 135は、入力部 12から供給された入力情報 PSが設定等の変化を生じ させる情報である力否かを判別する(ST1002)。ここで、入力情報 PSが設定等の変 化を生じさせる情報である場合 (ST1002の YES)、処理制御部 135は、取得した入 力情報 PSに応じて、表示モードや領域選択モードの設定の変更や、選択領域の変 更を行い、変更後の選択領域の画像に対して歪補正処理が行われるように、歪補正 処理部 133の動作を制御する。また、変更後の選択領域の画像が識別可能となるよ うに選択領域強調表示処理部 132を制御する。さらに、変更後のモードに応じた画 像データ DVdが生成されるように画像出力処理部 134の動作を制御する(ST1003 )。また、取得した入力情報 PSが選択領域のサイズや形状を変更させるものであると きは、変更後の選択領域に対応して歪み補正や強調表示処理が行われるように歪 補正処理部 133や選択領域強調表示処理部 132を制御する。例えば、選択領域の 形状が、円形,楕円形,三角形, 5角形以上の多角形,直線と曲線とで構成される形 状、あるいはこれら以外の複雑な形状等に設定されたときでも、これらの形状の選択 領域に含まれる画像の歪み補正が行われるように、歪補正処理部 133を制御する。 また、これらの形状の選択領域に対応した強調画像となるように選択領域強調表示 処理部 132の動作を制御する。なお、入力情報 PSが設定や選択の変化を生じさせ る情報でない場合(ST1002の NO) ST1002に戻り、入力部 12から新たに供給され た入力情報 PSが設定や選択の変化を生じさせる情報である力否かの判別を行う。
[0049] 以降、処理制御部 135が、入力情報 PSを取得し、それに応じて選択領域の画像を 歪が補正されて 、る状態で得ることを展開処理と 、う。
[0050] 次に、図 9及び図 10を用いて、撮像光学部 111の設置状態の態様について説明 する。視野を図 9のように三次元空間で表現するものとした場合、選択領域は球面 52 上に表現することが可能となる。なお、矢印 OAを光軸としたとき角度 Θは入射角を 示す。 [0051] ここで、撮像光学部 111が例えば 180° 程度の画角である魚眼レンズを用いて構 成されている場合、視野は球面 52のうち半球部分に相当するものとなる。このため、 撮像光学部 111を真上に向けて設置した場合は、図 10の (A)に示すように、球面の 上半分が撮像光学部 111の視野となる。なお、球面の上半分の視野を上半球視野と いう。また、撮像光学部 111を真下に向けて設置した場合は、図 10の(B)に示すよう に、球面の下半分が撮像光学部 111の視野となる。なお、球面の下半分の視野を下 半球視野という。さら〖こ、撮像光学部 111を水平方向に向けて設置して前方を撮像 する場合は、図 10の(C)に示すように、球面の前半分が撮像光学部 111の視野とな る。なお、球面の前半分の視野を前半球視野という。また、前方を撮像に代えて左方 向や右方向を撮像する場合の視野は、左半球視野あるいは左半球視野となる。
[0052] 撮像光学部 111を真上に向けて設置する場合としては、すなわち撮像光学部 111 の光軸を鉛直線と略一致させてするものとなり撮像方向が上方となる場合としては、 例えば、地面、床上、机上力 上方向を見る場合が想定される。撮像光学部 111を 真下に向けて設置する場合としては、すなわち撮像光学部 111の光軸が鉛直線と略 一致するものとなり撮像方向が下方となる場合としては、例えば、天井や上空から下 方向を見る場合が想定される。撮像光学部 111を水平方向に向けて設置する場合と しては、例えば地面に垂直な壁等から水平方向あるいは横方向を見る場合が想定さ れる。
[0053] これらのほか、斜め上半分や斜め下半分の視野も考えられる。これらのように、撮像 光学部 111の設置方向(撮像光学部 111と撮像素子 112がー体に構成されて 、ると きは撮像部 11の設置方向)に応じた半球状の視野が得られる。なお、魚眼レンズを 用いた場合に限らず、広角レンズやミラー等を用いた場合にも設置方向に応じて視 野の方向が変化する。さらに、視野が広いときには一部の視野範囲を選択して、この 選択した視野範囲を利用するものとしてもよい。
[0054] 次に、歪補正処理部 133の歪補正処理について説明する。歪補正処理の手法とし て、幾何学的補正が用いられ、例えば歪のある系の二次元座標力 歪のない二次元 直交座標系に変換するような一般的なアルゴリズムが用いられればよ ヽ。この場合、 その変換式や変換テーブルが図示しない ROMやその他のメモリ等に保存されてい ればよい。しかし、そのような歪補正に限られず、他の公知の歪補正が用いられても よい。
[0055] 図 11は、レンズの像高特性を説明するための図である。図 11の (A)では、点 Oを中 心とする上半球視野を y軸方向から見て二次元表示としたものである。図中、矢印 O Pkは例えば被写体の方向を示して 、る。この矢印 OPkで示す方向に位置する被写 体の結像点を点 Qとしたとき、点 O力も結像点 Qまでの距離が像高 Lhとなる。図 11の (B)は、当該像高特性を例示したグラフである。横軸が角度 (入射角) Θ、縦軸が像高 Lhを示している。当該データは、変換テーブルとして予めメモリに記憶されていれば よい。
[0056] 図 12は、歪補正処理の原理を説明するための図である。図 12の (A)は、表示部 14 に表示する画像の範囲を示す表示平面 81である。図 12の(B)は、上半球視野の球 面 51に対して表示平面 81を設定した状態を示している。ここで、選択領域の画像を 表示部 14の表示画像とする場合、この表示画像の範囲を示す表示平面 81は選択 領域に相当するものとなる。図 12の(C)は、図 12の(B)に示す球面 51を x—y平面上 に投影した状態を示すものであり、この球面 51が投影された領域が全体画像 Gcpの 領域に相当する。
[0057] 上半球視野の球面 51に対して設定した表示平面 81上の例えば点 Pについて説明 する。この点 Pの位置を P (u, V, w)とすると、 OP= (u2+v2+w2) 1/2であることから、 角度 Θは Θ =arccos[wZ ( (u2+v2+w2) 1/2) ]の演算を行うことにより求めることがで きる。なお、表示平面 81の中心は HOとする。また、上述した像高特性を撮像光学部 111について予め求めておき、角度 Θと像高 Lhの変換テーブルを記憶させておけ ば、角度 Θを算出することで点 Pに対する像高 Lhを得ることができる。
[0058] また、点 Pから X— y平面に垂線をおろしたときの X— y平面上の交点を点 P' (u, v, 0)とすると、 OP, =OP X sin ( 0 )となる。したがって、結像点 Q (xp, yp)は、 xp=u X Lh/ ( (u +v +w ) 1/2 X sin ( θ ) )ゝ yp=v X Lh/ ( (u +v +w2) 1 2 X sin ( Θ ) )の位 置となり、このようにして結像点 Q (xp, yp)を求めることができる。
[0059] また、点 Pに対応した X— y平面上の点 P'の方向と X軸との角度 φを求めて、角度 φ と像高 Lh力も結像点 Qの位置を求めるものとしてもよい。ここで、角度 φは、 φ =arc cos[uZ ( (u +v2) 1/2) ]の演算を行うことにより求めることができる。したがって、点 Oか ら X軸に対して角度 φを成す方向に像高 Lhだけ離れた位置が結像点 Qとなる。
[0060] このようにして求めた結像点 Qの画素信号を撮像素子 112から得るものとして、この 画素データに基づき図 12の(D)に示すように表示平面 81上の点 Pの描画を行う。ま た、表示平面 81内のすべての点(画素)についても同様な処理を行うことで、表示平 面 81上に、撮像光学部 111によって生じた歪が補正された画像を表示できる。なお 、結像点 Qに対応する画素信号がない場合には、結像点 Qの周隨こ位置する画素 の画素信号を用いて結像点 Qに対応する画素信号を生成すればょ 、。例えば結像 点 Qの周隨こ位置する画素の画素信号を用いて補間等を行うことで、結像点 Qに対 応する画素信号を生成できる。
[0061] このように、表示平面 81上の各点に対応する結像点 Qの画素データを用いて描画 を行うことで、歪補正された画像を得られることから、処理制御部 135は、選択領域に 対応する結像点すなわち選択領域に対応する画像領域 ARsを判別可能とする情報 を選択領域設定情衞 Aとして生成する。例えば、処理制御部 135は、図 12の(B)に 示す角度 θ , φを用いて選択領域を示した情報を選択領域設定情 ¾JAとする。この 場合、角度 Θに対応する像高 Lhと角度 φから、選択領域に対応した画像領域 ARs を判別できるので、選択領域強調表示処理部 132は、選択領域に対応した画像領 域 ARsを強調画像 Gsとした全体画像 Gcpの画像データ DVcpを生成することができ る。また、歪補正処理部 133は、選択領域に相当する表示平面上の各画素を示す角 度 0 , φに基づいて各画素に対応した画素データを得ることで、歪補正処理がなさ れた選択領域表示画像 Gscの被補正画像データ DVscを生成できる。また、選択領 域設定情 ¾JAとして、選択領域の範囲を示す座標値を用いるものとしても、上述のよ うな演算処理等を行うことで、全体画像 Gcpの画像データ DVcpや選択領域表示画 像 Gscの被補正画像データ DVscを生成することができる。また、座標値を用いるもの とすれば、選択領域の形状が複雑となっても選択領域を容易に示すことが可能とな る。
[0062] 次に、領域選択モードについて説明する。領域選択モード MSとしては、図 4に示 すように、第 1の領域選択モードである直交座標モード MS1と第 2の領域選択モード である極座標モード MS2が設けられて!/、る。
[0063] 直交座標モード MS1とは、例えば図 10の(C)に示すように、前半球視野として地面 に垂直な壁等力も水平方向あるいは横方向を見る場合等に、所望の被写体の歪補 正処理がなされた画像を容易に得られるモードである。具体的には、入力部 12から 選択領域の切り替え指示を示す入力情報 PSが供給されたとき、処理制御部 135は 切り替え指示に基づいて選択領域 71を直交座標系の軸方向に移動する演算処理 を行!ヽ、新たに設定した選択領域を示す選択領域設定情衞 Aの生成を行う。
[0064] 図 13は、領域選択モードのうち、直交座標モード MS1での動作を説明するための 図である。直交座標モード MS1では、直交座標系を用いて選択領域 71を切り替え 指示に応じて切り替える。切り替え指示は、例えば切り替え後の選択領域の X座標と y座標の座標値を示すものとしたり、選択領域の X方向の移動量や y方向の移動量を 示すものとして、選択領域 71を直交座標上で切り替える。ここで、 X座標あるいは y座 標のいずれか一方のみが変更されるとき、選択領域 71は直交座標系の軸方向に移 動した新たな位置となる。また、 X座標と y座標を変更すれば、選択領域 71は直交座 標系の軸方向に対して斜め方向に移動した新たな位置となる。
[0065] 切り替え指示に基づき選択領域 71を X方向に移動させて順次設定するとき、選択 領域 71上の任意の点(例えば中心 PO)の軌跡は線 51xとなる。また、切り替え指示 に基づき選択領域 71 方向に移動させて順次設定するとき、選択領域 71上の中 心 POの軌跡は線 51yとなる。なお、選択領域 71が移動されることで画像領域 ARsも 移動する。
[0066] このように、直交座標モード MS1では、直交座標系の座標値を変更することで前記 選択領域の切り替えを行う。このため、視野が例えば前半球視野となる場合に直交 座標モード MS1を選択すれば、選択領域の切り替え指示によって、選択領域 71を 水平方向あるいは垂直方向に移動した位置に容易に設定することが可能となるので 、表示部 14に表示されている画像を、容易に所望の方向の画像に切り替えることが できる。例えば水平方向に並んで 、る被写体から所望の被写体を選択して表示させ ることが容易となる。
[0067] 次に、極座標モード MS2について説明する。極座標モード MS2とは、例えば図 10 の (A)に示すように、上半球視野として地面、床上、机上から上方向を見る場合、ある いは図 10の (B)に示すように、下半球視野として天井や上空から下方向を見る場合 等に、所望の被写体の歪補正処理がなされた画像を容易に得られるモードである。 具体的には、入力部 12から選択領域の切り替え指示を示す入力情報 PSが供給され たとき、処理制御部 135は切り替え指示に基づ!/、て選択領域 71を極座標系の偏角 の変化方向に移動する演算処理を行 ヽ、新たに設定した選択領域を示す選択領域 設定情衞 Aの生成を行う。
[0068] 図 14は、領域選択モードのうち、極座標モード MS2での動作を説明するための図 である。極座標モード MS2では、極座標系を用いて選択領域 71を切り替え指示に 応じて切り替える。切り替え指示は、図 14に示すように、視野を三次元空間で表現す るものとした場合、例えば切り替え後の選択領域の偏角 Θ agと偏角 c^ agを示すものと したり、偏角 Θ agの変化量や偏角 φ agの変化量を示すものとして、選択領域 71を極 座標上で切り替える。ここで、偏角 Θ agあるいは偏角 ( ) agのいずれか一方のみが変 更されるとき、選択領域 71は極座標系の偏角 Θ agが変化する方向(以下「 Θ ag変化 方向」という)あるいは偏角 φ agが変化する方向(以下「 φ ag変化方向」という)に移動 した新たな位置となる。また、偏角 Θ agと偏角 φ agを変更すれば、選択領域 71は極 座標系の Θ ag変化方向あるいは φ ag変化方向に対して斜め方向に移動した新たな 位置となる。
[0069] 切り替え指示に基づき選択領域 71を Θ ag変化方向に移動させて順次設定するとき 、選択領域 71上の任意の点(例えば中心 PO)の軌跡は線 51rとなる。また、切り替え 指示に基づき選択領域 71を 変化方向に移動させて順次設定するとき、選択領 域 71上の中心 ΡΟの軌跡は線 51sとなる。なお、選択領域 71が移動されることで画 像領域 ARsも移動する。
[0070] また、二次元空間で表現される画像で視野を表現する場合、切り替え指示は、例え ば切り替え後の選択領域の偏角 φ agと動径を示すものとしたり、偏角 φ agの変化量 や動径の変化量を示すものとすれば、視野を二次元空間で表現する場合にも、選択 領域 71を極座標上で切り替えることが可能となる。
[0071] このように、極座標モード MS2では、極座標系の偏角および Zまたは動径を変更 することで選択領域の切り替えを行う。このため、視野が上半球視野あるいは下半球 視野となる場合に極座標モード MS2を選択すれば、選択領域の切り替え指示によつ て、選択領域 71を偏角の変化方向に移動した位置に容易に設定することが可能とな るので、表示部 14に表示されている画像を、容易に所望の方向の画像に切り替える ことができる。例えば、撮像光学部 111の周囲に位置する被写体力も所望の被写体 を選択して表示させることが容易となる。
[0072] 図 15は、ユーザが入力部 12を用いて選択領域を操作する際に表示される GUI (G raphical User Interface)の一例を示している。図 15の(A),図 15の(B)に示す操作入 力画面 Guは、図 7に示した全体画像 Gcp及び選択領域表示画像 Gscとともに表示部 14に表示されればよい。あるいは、操作入力画面 Guと、全体画像 Gcp等とは別々の 表示部に表示されるようにしてもよい。さらに、全体画像 Gcpや選択領域表示画像 Gs cを表示する表示部 14とば別個に表示部を設けて、例えば入力部 12に表示部を設 けて、この表示部で GUI表示を行うものとしてもよい。操作入力画面 Guには、方向ボ タン群 Guaあるいは方向ボタン群 Gubと、「拡大」ボタン Gucl及び「縮小」ボタン Guc2 が設けられている。図 15の (A)では、方向ボタン群 Guaとして、例えば中央の「選択」 ボタン Gualの周りに、「Up」「Down」「Right」「Left」ボタン等の方向ボタン Gua2がある 。また、図 15の(B)では、方向ボタン群 Gubとして、例えば中央の「選択」ボタン Gubl の周りに、「North」ボタンや「SE(South East)」ボタン等の方角ボタン Gub2がある。
[0073] 図 16は、直交座標モード MS1が選択されているときに選択領域の切り替え指示が 行われた場合を説明するためのものである。この例では、表示モード MHとして両方 表示モード MH3で表示する場合を挙げている。また、ここでは、例えばユーザは図 1 5の (A)に示した操作入力画面 Gu等を見ながら操作する例を挙げて説明する。
[0074] 図 16の(A)に示す状態から、ユーザがマウスやキーボード等によって、方向ボタン Gua2の「Right」ボタンを 1回、複数、又は連続して押すとする。なお、「連続して押す」 とは、 1度押された状態が解除されないままの状態のことであり、いわゆる「長押し」で ある。
[0075] そのように「Right」ボタンが押されると、その入力部 12の入力情報 PSに応じて、画 像処理部 13の処理制御部 135は、直交座標モード MS 1に応じた方向に選択領域 の切り替え処理を行!ヽ、新たに設定した選択領域を示す選択領域設定情衞 Aを生 成する。また、処理制御部 135は、生成した選択領域設定情 ¾JAを選択領域強調 表示処理部 132に供給して、強調画像 Gsが新たに設定した選択領域に対応する画 像領域 ARsを示すように、強調表示領域の変更を行う。さらに、処理制御部 135は、 生成した選択領域設定情衞 Aを歪補正処理部 133に供給して、新たに設定した選 択領域に対応する画像領域 ARsの画像を、撮像光学部 111によって生じた歪を補 正した状態の選択領域表示画像 Gscとする処理を行う。
[0076] また、画像出力処理部 134は、選択領域表示画像 Gscを含む表示画像の画像デ ータ DVdを表示モードに応じて生成して表示部 14に供給する。
[0077] これにより、表示部 14では、図 16の(B)に示すように、選択領域を右側に移動した ときの画像が表示されることとなる。また、全体画像 Gcpにおいても、強調画像 Gsの 位置が更新される。また、「Right」ボタンが複数、あるいは連続して押されることにより 、処理制御部 135は、「Right」ボタンの操作回数や押されている期間に応じて選択領 域の移動量を設定して、選択領域表示画像 Gscを更新する。このように、処理制御部 135は、図 13で示した直交座標系で展開処理を行い、選択領域表示画像を表示部 14に表示させる。
[0078] また、ユーザにより例えば「Up」ボタンが押されると、処理制御部 135は、その入力 情報 PSに応じて選択領域の切り替え処理を行!ヽ、選択領域の切り替えに伴!、移動 する画像領域 ARsの強調画像 Gsを、撮像光学部 111によって生じた歪が補正され た選択領域表示画像 Gscとして表示部 14に表示させる。
[0079] 図 15の(A), (B)における「選択」ボタン Gual, Gublは、様々な利用方法が考えら れる。例えば現在の画像領域 ARs内の選択領域表示画像 Gscを録画しておくための 録画開始ボタンとして利用できる。また、画像領域 ARsが強調画像 Gsとして示されて V、な 、場合に、この画像領域 ARsを強調画像 Gsとして表示してユーザが領域選択 動作を行えるようにする領域選択動作の開始ボタンとしても利用できる。あるいは、表 示モード MHの切り替えボタン、その他、いろいろな決定ボタンとしても利用できる。
[0080] また、撮像部 11における基準位置が予め決められた方向例えば北方向となるよう に正しく設定されて ヽる場合、方角ボタン Gub2の「East」ボタンが操作されたことを処 理制御部 135が判別したとき、選択領域を ¾ 」方向に新たに設定することで、選 択領域表示画像 Gscを更新する。また、「West」ボタンが操作されたことを処理制御 部 135が判別したとき、選択領域を「West」方向に新たに設定することで、選択領域 表示画像 Gscを更新する。このように、所望の方角を示すボタンを操作することで、選 択領域が所望の新たな位置に設定されている画像を表示部 14に歪みを生じさせる ことなく表示できる。
[0081] なお、図 15の(A), (B)に示した GUI表示は単なる例であり、これに限定されないこ とは言うまでもない。
[0082] 図 17は、例えば直交座標モードが選択されている場合に、表示モードが順に切り 替えられるときの表示部 14に表示される表示画像を示す。図 17の (A)は、全体画像 表示モード MH1に設定されたときの表示画像であり、全体画像 Gcpのみが表示され る。図 17の(B)は、選択画像表示モード MH2に設定されたときの表示画像であり、 選択領域表示画像 Gscのみが表示される。図 17の(C)は、両方表示モード MH3〖こ 設定されたときの表示画像であり、全体画像 Gcpと選択領域表示画像 Gscの両者が 表示される。また、表示モードを順に切り替えたときには、全体画像表示モード MH1 と選択画像表示モード MH2と両方表示モード MH3がサイクリックに切り替えられる。
[0083] 図 18は、極座標モード MS2が選択されているときの表示部 14に表示される表示 画像を示している。また、図 18では、 2つの選択領域を設けた場合を示している。な お、選択領域は 1つあるいは 2つに限られるものでなぐユーザが自由に設けられるよ うにしてもよい。例えば図 15の(A), (B)に示した「Menu」ボタン Guc3が操作されるご とに、増えるようにしてもよいし、他の図示しない GUI表示が用いられてもよい。この 場合、処理制御部 135は、入力部 12からの入力情報 PSに応じて選択領域を複数設 ける処理を行う。あるいは、入力部 12からの入力情報 PSによらず、予め選択領域を 複数設けるように設定してもよい。また、処理制御部 135は、入力部 12からの入力情 報 PSに応じて、分割表示モード MH4に設定されたとき、各選択領域の選択領域表 示画像を個々に生成して表示部 14で同時に表示させるものとしてもよい。
[0084] 極座標モード MS2の説明に戻る。図 18では、説明を分力りやすくするため、例え ば人間が入り込むことのできない配管の中を、ロボットが走行するといつた状態を想 定している。また、このロボットには、例えば広角レンズを用いた撮像光学部 111が設 置されているものとする。また、配管の内壁 91の上部にひび割れ 92が発生している ものとする。選択領域表示画像 Gsclは、第 1の選択領域の画像である。すなわち第 1 の選択領域に対応する画像領域 ARslの強調画像 Gslが歪補正処理されている画 像である。また、選択領域表示画像 Gsc2は、第 2の選択領域に対応する画像領域 A Rs2の強調画像 Gs2が歪補正処理されている画像である。
[0085] 図 18の (A)の状態である場合、入力部 12から供給された入力情報 PSが例えば図 14に示す極座標系の φ ag変化方向に選択領域を切り替える切り替え指示であるとき 、処理制御部 135は、切り替え指示に応じて φ ag変化方向に選択領域を切り替える 処理を行!ヽ、処理後の選択領域を示す選択領域設定情衞 Aを選択領域強調表示 処理部 132と歪補正処理部 133に供給する。選択領域強調表示処理部 132は、選 択領域設定情 ¾JAに基づいて、処理後の選択領域に対応した強調画像 Gsl, Gs2 の表示を行う。歪補正処理部 133は、選択領域設定情 ¾JAに基づいて、処理後の 選択領域に対応した画像領域 ARsl, ARs2の画像を、撮像光学部 111によって生じ た歪を補正した状態の選択領域表示画像 Gscl, Gsc2とする補正処理を行う。このた め、切り替え指示後の表示画像は、図 18の(B)に示すように、切り替え指示後の選択 領域の画像が選択領域表示画像 Gscl, Gsc2として表示される。また、強調画像 Gsl , Gs2は選択領域表示画像 Gscl, Gsc2の領域を正しく示すようになる。この場合、画 像領域 ARsl, ARs2は全体画像 Gcp上にぉ 、て反時計方向に移動したものとなり、 切り替え指示の方向が逆方向であるときは、画像領域 ARsl, ARs2が時計方向に移 動したものとなる。
[0086] また、図 18の (A)の状態である場合、入力部 12から供給された入力情報 PSが例え ば図 14に示す極座標系の Θ ag変化方向に選択領域を切り替える切り替え指示であ るとき、処理制御部 135は、切り替え指示に応じて Θ ag変化方向に選択領域を切り 替える処理を行!ヽ、処理後の選択領域を示す選択領域設定情 ¾JAを選択領域強 調表示処理部 132と歪補正処理部 133に供給する。選択領域強調表示処理部 132 は、選択領域設定情 ¾JAに基づいて、処理後の選択領域に対応した強調画像 Gsl , Gs2の表示を行う。歪補正処理部 133は、選択領域設定情 ¾JAに基づいて、処理 後の選択領域に対応した画像領域 ARsl, ARs2の画像を、撮像光学部 111によって 生じた歪を補正した状態の選択領域表示画像 Gscl, Gsc2とする補正処理を行う。こ のため、切り替え指示後の表示画像は、図 19に示すように、切り替え指示後の選択 領域の画像が選択領域表示画像 Gscl, Gsc2として表示される。また、強調画像 Gsl , Gs2は選択領域表示画像 Gscl, Gsc2の領域を正しく示すようになる。この場合、画 像領域 ARs 1, ARs2は全体画像 Gcp上にお 、て径方向に互いに近づくように移動し たものとなり、切り替え指示の方向が逆方向であるときは、画像領域 ARsl, ARs2が 全体画像 Gcp上にぉ 、て径方向に互 、離れるように移動したものとなる。
[0087] なお、極座標モード MS2においては、例えば、選択領域の切り替えは、マウス、キ 一ボード、タツチセンサ等により実現することができ、そのときの GUIはどのような形態 であってもよい。
[0088] 極座標モード MS2では、例えば図 18の(A)に示す表示画像の状態から、図 20に 示すように、入力部 12からの取得する入力情報 PSに応じて、選択領域表示画像 Gs clを表示部 14の下側に 180度回転させて表示し、選択領域表示画像 Gsc2を表示部 14の上側に 180度回転させて表示することも可能である。これにより、ユーザが見や す 、角度で画像を見ることができ便利である。
[0089] もちろん、上記直交座標モード MS1においても、選択領域が複数設けられており、 それに応じて分割表示モード MH4が適用されてもよい。あるいは、直交座標モード MS1及び極座標モード MS2で、画像処理部 13は、選択領域を複数設ける場合で あっても、一画面の合成歪補正画像を生成せずに、 1つの選択領域の選択領域表 示画像を生成して表示部 14に出力するようにしてもよい。この場合、 1つの選択領域 につ 1ヽての選択領域表示画像を一画面表示とする画像データを出力するか、複数 の選択領域の選択領域表示画像を生成して各選択領域表示画像を一画面表示と する画像データを出力するかは、入力部 12による入力情報 PSに応じて、あるいは予 め設定された設定情報に応じて画像処理部 13の処理制御部 135が制御する。
[0090] 極座標モード MS2においては、例えば「Menu」ボタン Guc3がユーザによって操作 される度に、処理制御部 135は表示モード MHの切り替えを直交座標モード MS1と 同様に行う。さらに、選択領域が複数設けられるときは、分割表示モード MH4を選択 可能とする。
[0091] 図 21は、分割表示モード MH4を選択可能としたときの表示モードの切り替えの遷 移を示した図である。なお、選択領域は 4つ設けられているものとする。例えば両方 表示モード MH3で 1つの選択領域補正画像を表示するモード(図 21の (A))、両方 表示モード MH3で 1つの選択領域表示画像を上下反転させて表示するモード(図 2 1の(B))、分割表示モード MH4で 2つ選択領域補正画像を表示するモード(図 21の (C))、分割表示モード MH4で選択領域補正画像が 2つ表示されている画像を上下 反転させて表示するモード(図 21の(D))、分割表示モード MH4で 4つ選択領域補 正画像を表示するモード(図 21の(E))、分割表示モード MH4で選択領域補正画像 力 つ表示されている画像を上下反転させて表示するモード(図 21の(F))を切り替 えて表示することが可能である。なお、図 21では、すべての選択領域補正画像が表 示されていないので、表示する選択領域補正画像を切り替え可能とすればよい。な お、全体画像表示モード MH1や選択画像表示モード MH2への切り替えを可能とし てもよ 、ことはもちろんである。
[0092] 以上のように、本実施の形態によれば、領域選択モードとして直交座標モード MS 1 と極座標モード MS2を設けたので、例えば視野方向に応じて領域選択モードを切り 替えることで、直感的で分力りやすい操作が可能となり、ユーザにとって便利で使い やす 、画像処理装置を実現できる。
[0093] 画像処理部 13は、これまで説明してきたような処理のほか、選択領域表示画像を 拡大したり縮小や回転させたりする処理を行うことができる。
[0094] 図 22を参照して、選択領域表示画像の拡大 Z縮小処理について説明する。図 22 の(A)に示される状態で、ユーザが例えば図 15の(A), (B)に示す「拡大」ボタン Guc 1を操作とする。そうすると、このときの入力情報 PSに応じて処理制御部 135は、選択 領域の範囲を縮小する処理を行! \処理後の選択領域を示す選択領域設定情 ¾J Aを選択領域強調表示処理部 132と歪補正処理部 133に供給する。選択領域強調 表示処理部 132は、選択領域設定情 ¾JAに基づいて、処理後の選択領域に対応し た強調画像 Gsl, Gs2の表示を行う。歪補正処理部 133は、選択領域設定情 ¾JAに 基づいて、処理後の選択領域に対応した画像領域 ARsl, ARs2の画像を、撮像光 学部 111によって生じた歪を補正した状態の選択領域表示画像 Gscl, Gsc2とする 補正処理を行う。ここで、図 22の(A)に示すように、両方表示モード MH3とされてい る場合、縮小操作が行われた後の表示画像は、縮小後の選択領域に対応した選択 領域表示画像 Gscが、図 22の(B)に示すように全体画像 Gcpの表示領域を除く全画 面に表示されるので、画像領域 ARsに含まれていた人物画像 GMは、図 22の(A)に 比べて拡大されて表示されることになる。なお、選択領域を縮小することから、全体画 像 Gcpにおける画像領域 ARsは狭くなる。
[0095] 反対に、ユーザが「縮小」ボタン Guc2を操作すれば、処理制御部 135はその入力 情報 PSに応じて選択領域の範囲を縮小する処理を行!ヽ、処理後の選択領域を示す 選択領域設定情衞 Aを選択領域強調表示処理部 132と歪補正処理部 133に供給 する。このため、拡大後の選択領域に対応した画像領域 ARsの強調画像 Gsが歪補 正処理されて選択領域表示画像 Gscとして全体画像 Gcpの表示領域を除く全画面に 表示されるので、画像領域 ARsに含まれていた人物画像 GMは、図 22の (A)に比べ て縮小されて表示されることになる。このようにして拡大 Z縮小処理が可能となる。
[0096] 次に、図 23,図 24を参照して、画像処理部 13により選択領域の画像を回転して表 示する場合について説明する。図 23の (A), (B)は「回転」の操作指示前の状態を示 す図であり、図 23の (A)は、全体画像 Gcp中の例えば人物画像 GMが画像領域 ARs に含まれるように選択領域が設定されている場合を示している。また、図 23の(B)は、 画像領域 ARsの強調画像 Gsが歪補正処理された画像である選択領域表示画像 Gs cを示している。ユーザからの「回転」の操作指示があった場合、図 24の (A)に示すよ うに、処理制御部 135はその入力情報 PSに応じて、画像領域 ARsのほぼ中心点を 中心として回転するように選択領域の変更処理を行う。この場合、変更処理後の選択 領域に対応する画像領域 ARsでは人物画像 GMが逆方向に回転された状態となる 。したがって、変更処理後の選択領域に対応する画像領域 ARsの強調画像 Gsに対 する選択領域表示画像 Gscを生成すれば、図 24の(B)に示すように、人物画像 GM が選択領域の回転方向とは逆方向に回転された画像を得ることができる。このような 回転処理により、ユーザは観察対象物を見やすい角度で見ることができ、便利である [0097] また、選択領域を回転させるのではなぐ全体画像 Gcpを回転させるようにしても構 わない。例えば、図 25の(A)に示すように、直交座標モード MS1における移動軸とし て X軸 (Pan軸)が水平方向、 y軸 (Tilt軸)が垂直方向となる状態から、図 25の(B)に 示すように、全体画像 Gcpを、上記 X軸及び y軸、強調画像 Gsとともに例えば反時計 回りに回転させる。この場合、表示部 14に出力される選択領域表示画像 Gscに変化 はない。これにより、全体画像表示モード MH1において、上記回転方向における力 メラの設置角度の傾きを補正したり、全体画像 Gcpを意図的に回転させて特殊効果と して表示させたりすることも可能となる。
[0098] 図 26は、本発明の他の実施の形態に係る画像処理システムの構成を示すブロック 図である。これ以降の説明では、図 1に示した画像処理システム 10が備えるデバイス や機能等について同様のものは説明を簡略又は省略し、異なる点を中心に説明す る。
[0099] 画像処理システム 20は、図 1の画像処理システム 10にさらに記憶装置 21をカ卩えた 構成を有している。この記憶装置 21は、例えば撮像部 11で生成された画像データ D Vaや画像処理部 13で生成された各種の画像データを記憶する装置である。記憶装 置 21に用いられる記憶媒体としては、光ディスク、磁気ディスク、半導体メモリ、誘電 体メモリ、テープ状の記憶媒体等、画像データを記憶できる媒体なら何でもよい。
[0100] 例えば記憶装置 21は、画像データ DVaを記憶しておく場合、画像処理部 13は、 入力部 12からの入力情報 PSに応じて、記憶装置 21からユーザが望む画像データ D Vaを読み出して、表示部 14に表示させることが可能となる。具体的には、ユーザ操 作に基づく入力情報 PSに応じて、画像処理部 13が、記憶装置 21に記憶された過去 の広視野画像 Gcの画像データ DVaを読み出して、この読み出された画像データ DV aで表される視野に対して選択領域を設定して、この選択領域の歪が補正された画 像である選択領域表示画像を表示部 14に表示させる、という形態が考えられる。ある いは、ユーザによらず、画像処理部 13は、記憶装置 21に記憶された過去の広視野 画像中から、予め設定された選択領域の画像を歪補正処理して表示部 14に表示さ せる形態も考えられる。
[0101] その場合のより具体的な例として、次のような形態も考えられる。例えばユーザが、 撮像部 11からリアルタイムで得られる広視野画像中から選択領域を選択して、リアル タイムで全体画像 Gcp及び選択領域表示画像 Gscを見るなり、記憶装置 21に記憶し ておくなりする。そして、ユーザは、その後、記憶された全体画像 Gcpを見ながら、上 記リアルタイム時に選択した領域とは別の領域を選択してその選択領域表示画像 Gs cを見たりすることも可能である。
[0102] あるいは、画像処理部 13は、記憶装置 21に全体画像 Gcpの画像データを記憶さ せな 、で、選択領域表示画像 Gscの画像データのみを記憶させておくようにすること もできる。この場合、ユーザは、その選択領域表示画像 Gscを後で見ることができる。 もちろん、全体画像 Gcp及び選択領域表示画像 Gscの両方を示す画像データやそ れぞれの画像の画像データを記憶しておくようにしてもょ 、。
[0103] あるいは、画像処理部 13は、図 27に示すフローチャートの処理を行うこともできる。
画像処理部 13は、撮像部 11からリアルタイムの広視野画像を取得し (ST2401)、か つ、記憶装置 21に記憶された過去の広視野画像又は過去の選択領域表示画像を 取得する(ST2402)。画像処理部 13は、取得した広視野画像と、過去の広視野画 像又は過去の選択領域表示画像とを一画面の画像データとして両者を合成する処 理を行い(ST2403)、合成された画像データを表示部 14に出力することができる(S T2404)。あるいは、画像処理部 13は、取得した広視野画像と、過去の広視野画像 又は過去の選択領域表示画像とを別々の表示部 14にそれぞれ表示してもよい。な お、 ST2401と 2402とが逆の順である形態も考えられる。
[0104] あるいは、画像処理部 13は、リアルタイムで歪補正処理を行って得られる選択領域 表示画像 Gsc (この選択領域表示画像 Gscは、リアルタイムの広視野画像からリアル タイムで生成される画像でもよ ヽし、記憶装置 21に記憶された過去の広視野画像か らリアルタイムで生成される画像でもよい。)と、過去の選択領域表示画像とを両方出 力する形態が考えられる。具体的には、図 28に示すように、画像処理部 13は、撮像 部 11からリアルタイムで広視野画像を取得するか、又は、記憶装置 21から過去の広 視野画像を取得する(ST2501)。さらに、画像処理部 13は、記憶装置 21に記憶さ れた過去の選択領域表示画像を取得する(ST2502)。画像処理部 13は、 ST2501 で取得した上記広視野画像内の選択領域の画像に対する歪補正処理を行う(ST25 03)。画像処理部 13は、その歪補正処理により生成された選択領域表示画像と、 ST 2502で取得した選択領域表示画像を一画面の画像データとして合成処理し (ST2 504)、これを選択領域表示画像 Gscとして表示部 14に出力する(ST2505)。なお、 ST2501と 2502とが逆の順である形態も考えられるし、 ST2502と 2503と力逆の順 である形態も考えられる。
[0105] 図 28に示す処理の場合、さらに、画像処理部 13は、 ST2503で歪補正処理を行 つて得られる選択領域表示画像 (以下、リアルタイム選択領域表示画像という。)と、 過去の選択領域表示画像とが、人間が表示部上で区別できるような態様で出力する こともできる。具体的には、画像処理部 13が、例えばリアルタイム選択領域表示画像 及び過去の選択領域表示画像中のうち少なくとも一方に識別子を付した画像を生成 すると力 両画像を囲む枠を生成してその枠の色を変えた画像を生成する等が考え られる。
[0106] なお、記憶装置 21に記憶された画像データが動画なら、記憶装置 21の記憶容量 に応じて、ある一定容量分の動画データを記憶し、最も古い画像フレーム力も順次、 自動的に消去されるようにしてもょ 、。
[0107] 記憶装置 21を用いた形態として、さらに以下のような形態も考えられる。例えば、あ る任意の時に、ユーザが、リアルタイムの広視野画像内、又は記憶装置 21から読み 出した画像データに基づく広視野画像内に選択領域を設ける操作を行い、画像処 理部 13は、その操作に応じて記憶装置 21に選択領域がどのように設けられて 、るか を示す位置情報のみを記憶しておく。また、上記領域選択モード MSに応じて選択 領域の切り替えが行われた場合、画像処理部 13は、選択領域の切り替えを再現可 能とする軌跡情報を記憶装置 21に記憶しておけばよい。図 29は、位置情報又は軌 跡情報の記憶処理を示すフローチャートである。画像処理部 13は、撮像部 11からリ アルタイムで取得される広視野画像内、又は、記憶装置 21から読み出した画像デー タに基づく広視野画像内に選択領域を設定するときの入力情報を取得する(ST260 D o画像処理部 13の処理制御部 135は、入力情報に応じてその選択領域の位置情 報を生成する、又は選択領域の切り替え操作が行われたときは、軌跡情報を生成し て、選択領域の切り替えを再現可能とする(ST2602)。画像処理部 13の処理制御 部 135は、生成した位置情報又は軌跡情報を記憶装置 21に記憶させる(ST2603)
[0108] このような形態は、例えばある場所のうち、所定の範囲の画像や、ある範囲の軌跡 による画像が必要な場合に有効である。例えば、撮像部 11がセキュリティ用の定点 監視カメラに搭載される場合、広視野画像の中から、ある所定の範囲の画像や、ある 範囲の軌跡の画像が必要になることが考えられる。その場合に、広視野画像中の予 め定められた範囲、あるいは予め定められた範囲の軌跡に対応させて選択領域を設 定すれば、ユーザが、その範囲やその範囲の軌跡の選択領域表示画像を常に表示 部 14で表示画像として監視することができる。このような形態では、例えば記憶装置 21に所定範囲の「軌跡」の選択領域表示画像が記憶される場合、選択領域の連続 的な動きの始点力 終点までの動きが自動的に周期的に繰り返されるようにすれば よい。そして、その周期ごとの画像が記憶装置 21に記憶されればよい。なお、もちろ ん、本形態はセキュリティ用に限られるわけではな 、。
[0109] 念のために説明しておくが、上記所定の範囲の画像は静止画であってもよいし、動 画であってもよい。ある範囲の軌跡の画像についてであっても、当該軌跡上の位置 の静止画であってもよ 、し、軌跡の始点から終点までの動画で記憶することができる 。この場合、画像処理部 13は、歪補正処理後の画像を静止画で出力する等の処理 ち考免られる。
[0110] 図 30は、記憶装置 21を用いた形態として、上述のような、所定範囲の軌跡の設定 方法を説明するための図である。
[0111] ユーザが、広視野画像に対して選択領域を設定して選択領域の位置を切り替えて いく。具体的には、例えば図 15の (A), (B)に示した方向ボタン Gua2や方角ボタン G ub2の 、ずれのボタンが操作されたかを判別して、操作されたボタンの方向に選択領 域を移動する処理を繰り返すことで実現され、画像処理システム 20の内部処理では 、図 29の ST2602及び ST2603で示したように、画像処理部 13は、「選択」ボタン G ual, Gublの操作を示す入力情報に応じて、このときの選択領域の位置情報を記憶 装置 21に記憶する。例えば、選択領域に対応した画像領域 ARsが広視野画像 Gc 上の位置 aとされたときに「選択」ボタン Gual, Gublが操作された場合、このときの選 択領域の位置情報を記憶する。また、選択領域が切り替えられて、切り替え後の選択 領域に対応した画像領域 ARsが広視野画像 Gc上の位置 bとされたときに「選択」ボタ ン Gual, Gublが操作された場合、このときの選択領域の位置情報を記憶する。以下 同様に、選択領域に対応した画像領域 ARsが広視野画像 Gc上の位置 c, dとされた ときの選択領域の位置情報を記憶する。
[0112] あるいは、ユーザが方向ボタン Gua2あるいは方角ボタン Gub2を操作しなくても、予 めプログラムで軌跡が設定されていてもよいし、上述した様々なセンサにより自動認 識で軌跡が生成されてもよい。その場合、軌跡は、図 30に示す位置 a, b, c, dのよう な不連続な点に画像領域 ARsが設けられるように選択領域を設定するものでもよい し、位置 aから位置 dまで連続するように選択領域を設定するものであってもよい。ある いは、ユーザが位置 a, b, c, dの不連続点を設定した場合、位置 a, b, c, dの各点を 補間する位置に画像領域 ARsが設けられるように選択領域を設定するようなプロダラ ムを、画像処理部 13が備えていてもよい。
[0113] あるいは、予め軌跡情報が複数あって、ユーザがそれを選択できるようにしても構 わない。
[0114] 図 31は、本発明のさらに別の実施の形態に係る画像処理システムの構成を示すブ ロック図である。この画像処理システム 30は、上述の撮像部 11がなぐ記憶装置 21 を備えている。記憶装置 21には、例えば上述のように広視野画像が予め記憶されて いる。このような構成によれば、画像処理部 13が広視野画像の画像データ DVmを読 み出し、その広視野画像から展開処理によって選択領域表示画像を得ることができ る。
[0115] そのほか、画像処理システム 30では、画像処理部 13が、予め記憶装置 21に記憶 された画像データに基づく広視野画像から展開処理を行って選択領域表示画像を 得るものとし、その広視野画像と選択領域表示画像とを対応付けて記憶装置 21に記 憶しておくことも可能である。あるいは、画像処理部 13は、予め記憶された画像デー タに基づく広視野画像と、その広視野画像から展開処理を行う領域である選択領域 を示す情報とを対応付けて記憶装置 21に記憶しておくことも可能である。
[0116] 本発明は以上説明した実施の形態には限定されるものではなぐ種々の変形が可 能である。
[0117] 表示部 14に表示される、全体画像 Gcpと選択領域表示画像 Gscとが、所定の時間 ごとに交互に表示部 14に表示されるようにすることも可能である。その場合において 、ユーザからの何らかの操作入力が合った場合に、全体画像 Gcpと選択領域表示画 像 Gscとが両方表示されるようにしてもょ 、。
[0118] 図 1,図 26において、撮像部 11の撮像素子 112、入力部 12、画像処理部 13、表 示部 14、記憶装置 21等は、インターネット、 LAN (Local Area Network)、あるいは専 用回線等のネットワークを介してそれぞれ接続されて 、てもよ 、。
[0119] 上記各実施の形態に係る画像処理システムは、例えば、セキュリティシステム、テレ ビ会議システム、機械や設備等の検査、管理、試験等のシステム、道路交通システム 、移動カメラ(例えば移動する車両、飛行体、その他移動体力 撮像するためのカメ ラ)が用いられるシステム、介護や医療システム等、様々な用途がある。
[0120] 図 26及び図 31に示した実施形態が組み合わされた画像処理システムを実現する ことも可能である。つまり、前段と後段にそれぞれ記憶装置があるシステムも実現可 能である。
[0121] 次に、本発明のさらにまた別の実施形態について説明する。本実施形態において は、画像処理部 13の処理制御部 135が、撮像部 11の設置方向(設置角度)に応じ て領域選択モード MSを切り替えることが可能である。以下、この場合の画像処理シ ステム 40の構成及び動作にっ 、て説明する。
[0122] 図 32は、本発明のさらにまた別の実施形態に係る画像処理システムの構成を示す ブロック図である。図 32に示すように、本実施形態において、画像処理システム 40は 、図 1に示した画像処理システム 10の各構成要素に加えて、撮像光学部 111に入射 する光学像の入射方向を検出する方向検出センサ、例えばジャイロセンサ 41を有し ている。
[0123] ジャイロセンサ 41は、撮像光学部 111に固定して設けられており、撮像光学部 111 に入射する光学像の入射方向を検出して、方向検出結果を示すセンサ信号 ESを画 像処理部 13の処理制御部 135に供給する。なお、以下の説明では、撮像光学部 11 1と撮像素子 112とジャイロセンサ 41を一体として撮像部 11を構成して!/、るものとす る。
[0124] 図 33は、本実施形態において、撮像部 11の設置方向に応じて領域選択モード M Sを切り替える様子を概念的に示した図である。
[0125] 図 33に示すように、撮像部 11の設置態様は、上記図 10でも示したように、地面や 床上、机上等に設置されて所望の被写体 HMを撮像する場合 (上半球視野、図 33 の (A))、地面に垂直な壁面等に設置されて被写体 HMを水平方向から撮像する場 合 (前半球視野、図 33の (B))、天井や空中等に設置されて被写体 HMを撮像する 場合 (下半球視野、図 33の (C))の 3つに大別される。
[0126] このため、画像処理部 13の処理制御部 135は、方向検出センサ力ものセンサ信号 に基づ!/、て判別した撮像部 11における鉛直方向の角度に応じて、領域選択モード MSの設定や切り替えを自動的に行う。
[0127] 具体的には、撮像部 11が上半球視野及び下半球視野にある場合には領域選択モ ード MSを極座標モード MS2に切り替え、前半球視野にある場合には直交座標モー ド MS1に切り替えることとする。このように切り替えるものとすれば、撮像部 11が上半 球視野や下半球視野にある場合、広視野画像 Gcの中心部分の被写体よりもその周 囲を容易かつ万遍なく観察することが可能となる。また撮像部 11が前半球視野にあ る場合には、直交座標モード MS 1に設定することで、広視野画像 Gcの中心部分の 被写体を詳細に観察しながら、当該被写体の上下左右方向も容易に観察することが できる。
[0128] なお、本実施形態において、図 33の (A)のように撮像部 11が上半球視野となるよう に設置され、領域選択モード MSが極座標モード MS2となる状態を S、図 33の(B)
0
のように撮像部 11が前半球視野となるように設置され、領域選択モード MSが直交座 標モード MS1となる状態を S、図 33の(C)のように撮像部 11が下半球視野となるよう
1
に設置され、領域選択モード MSが極座標モード MS2となる状態を Sとそれぞれ称
2
することとする。
[0129] 図 34は、状態 S , S及び Sを切り替えるための閾値の設定方法について説明した
0 1 2
図である。図 34に示すように、本実施形態においては、例えば撮像部 11が上半球 視野にある状態を基準位置( =0度)とし、まず 2つの閾値( 、 φ )を用いて、撮 像部 11の設置角度が閾値 φ あるいは閾値 φ を超えるか否かに応じて上記 3つの状
1 2
態 S , S及び Sのいずれの状態である力判別して、判別結果に基づき領域選択モ
0 1 2
ード MSを設定する。さらに、領域選択モード MSを設定後に撮像部 11の設置角度 に変化があった場合には、上記閾値 Φ
1及び閾値 φ
2とは別の閾値を用いて、各状態 力 別の状態に切り替える際にヒステリシスを持たせる。
[0130] 具体的には、図 34の (A)に示すように、閾値 φ , φ とは別に、例えば閾値 φ の前
1 2 1 後 ± 10度の値を新たな閾値 φ , φ とし、また例えば閾値 φ の前後 ± 10度の値を
3 4 2
新たな閾値 φ , φ として設定する。図 34の(B)に示すように、閾値 φ は、状態 Sか
5 6 3 0 ら状態 Sへ切り替える際の閾値であり、閾値 φ は、状態 Sから状態 Sへ切り替える
1 4 1 0 際の閾値である。また、閾値 φ は、状態 Sから状態 Sへ切り替える際の閾値であり、
5 1 2
閾値 Φ は、状態 S力 状態 Sへ切り替える際の閾値である。閾値 φ , φ を含めたこ
6 2 1 1 2 れら各閾値の大 /J、関係は、図 34の(B)〖こ示すよう〖こ、 φ く φ く φ く φ く φ く φ となる
4 1 3 6 2 5
。なお、閾値 φ は例えば 45度、閾値 φ は例えば 135度である力 この数値に限られ
1 2
るものではない。また、上記閾値 φ , φ , φ , φも上記 ± 10度の値に限られるもの
3 4 5 6
ではなぐ ± 5度、 ± 15度等、様々な値を採ることができ、また、閾値 φ と、閾値 φ
1 3 及び閾値 Φ
4との各差の絶対値が異なるように、また閾値 Φ
2と、閾値 Φ
5及び閾値 Φ
6 との各差の絶対値が異なるように設定しても構わな 、。
[0131] 次に、本実施形態において上記状態 S , S , Sの切り替え動作について説明する
0 1 2
。図 35は、画像処理システム 40が状態 S , S及び Sを切り替える場合の動作を示し
0 1 2
たフローチャートである。
[0132] 図 35に示すように、まず、撮像部 11を上記基準位置( =0度)の位置とする。画 像処理部 13の処理制御部 135は、このときのジャイロセンサ 41の測定結果を取得す る(ST3201)。次に、撮像部 11を所望の位置に設置する。処理制御部 135は、この ときのジャイロセンサ 41の測定結果を取得して、この測定結果と ST3201で取得した 測定結果から現在角度 Φ を測定する(ST3202)。
P
[0133] 続いて、処理制御部 135は、現在角度 φ が閾値 φ 以下である力否かを判定する(
P 1
ST3203)。 φ ≤φ である場合 (YES)、処理制御部 135は、上記 Sの状態であると
P 1 0
判別して、領域選択モード MSを上半球視野における極座標モード MS2に設定する (ST3204)。
[0134] 上記 ST3203において、 φ > φである場合 (NO)、処理制御部 135は、さらに現
P 1
在角度 Φ が閾値 φ 以下である力否かを判定する(ST3207)。 φ ≤φである場合
Ρ 2 Ρ 2
(YES)、処理制御部 135は、上記 Sの状態であると判別して、領域選択モード MS
1
を前半球視野における直交座標モード MS 1に設定する(ST3208)。
[0135] 上記 ST3207において、 φ > φである場合(NO)、処理制御部 135は、上記 S
P 2 2 の状態であると判別して、領域選択モード MSを下半球視野における極座標モード MS 2に設定する(ST3212)。
[0136] ST3204において、領域選択モード MSを極座標モード MS2に設定した後、処理 制御部 135は、ジャイロセンサ 41から再度現在角度 φ を読み込み(ST3205)、現
P
在角度 Φ が閾値 φ 以上である力否かを判定する(ST3206)。 φ ≥φである場合
Ρ 3 Ρ 3
(YES)、処理制御部 135は、上記 Sの状態に撮像部 11が変更されたと判別して、
1
領域選択モード MSを直交座標モード MS1に設定する(ST3208)。 φ く φである
Ρ 3 場合 (NO)、処理制御部 135は極座標モード MS2の状態を維持する(ST3204)。
[0137] ST3208において、領域選択モード MSを直交座標モード MS 1に設定した後、処 理制御部 135は、ジャイロセンサ 41から再度現在角度 φ を読み込み(ST3209)、
P
現在角度 φ が閾値 φ 以下である力否かを判定する(ST3210)。 φ ≤φである場
Ρ 4 Ρ 4 合 (YES)、処理制御部 135は、上記 Sの状態に撮像部 11が変更されたと判別して
0
、領域選択モード MSを極座標モード MS2に設定する(ST3204)。
[0138] ST3210において、 φ > φである場合 (NO)、処理制御部 135は、さらに上記現
P 4
在角度 Φ が閾値 φ 以上である力否かを判定する(ST3211)。 φ ≥φ の場合 (YE
P 5 P 5
S)、処理制御部 135は、上記 Sの状態に撮像部 11が変更されたと判別して、領域
2
選択モード MSを極座標モード MS2に設定する(ST3212)。 φ く φである場合 (Ν
Ρ 5
Ο)、処理制御部 135は直交座標モード MSIの状態を維持する(ST3208)。
[0139] ST3212において、領域選択モード MSを極座標モード MS2に設定した後、処理 制御部 135は、ジャイロセンサ 41から再度現在角度 φ を読み込み(ST3213)、現
P
在角度 Φ が閾値 φ 以下である力否かを判定する(ST3214)。 φ く φである場合(
P 6 P 6
NO)、処理制御部 135は、上記 Sの状態に撮像部 11が変更されたと判別して、領 域選択モード MSを直交座標モード MS 1に設定する(ST3208)
[0140] ST3214において、 φ ≥ φである場合 (YES)、処理制御部 135は極座標モード
P 6
MS 2の状態を維持する(ST3212)。
[0141] このように、処理制御部 135は、以上の動作を繰り返し行うことで、撮像部 11の設 置角度に応じて領域選択モード MSを自動的に切り替える。
[0142] ここで、状態 S及び状態 Sにおける極座標モード MS2、又は状態 Sにおける直交
0 2 1
座標モード MS 1に設定して、
Figure imgf000039_0001
ヽて選択領域表示画像 Gscを表示する 場合の座標計算方法について説明する。図 36,図 37,図 38,図 39は、当該座標計 算方法にっ 、て示した図である。
[0143] まず、図 36の (A)に示すように、上述した極座標モード MS2 (上半球視野)におい て、表示平面 81の Pan (z軸中心の回転)の角度を H (x軸方向を 0度)、 Tilt (X軸又 は y軸中心の回転)の角度を V (X軸方向を 0度)とする。
[0144] 次に、直交座標モード MS1においては、極座標モード MS2に比べて視野の方向 が 90度傾くため、上記図 36の (A)に示した座標軸を入れ替え、上記 Pan及び Tilt値 を変換する。
[0145] 具体的には、まず、図 36の(B)に示すように、図 36の(A)の各座標軸を、 x軸→y軸 y軸→z軸、∑軸→ 軸というように入れ替え、図 36の(A)における Pan角(H)及び Ti It角(V)がそれぞれ回転した角度を Pan角(h)及び Tilt角(v)とする。この場合、表 示部 14に表示する画像に対応した領域である選択領域の設定方向を表す方向ベタ トル [D]は、各座標系における X軸方向の単位ベクトルの回転により、図 37に示す行 列で求められる。これにより、直交座標モード MS1における上記回転後の Pan角(h) 及び Tilt角(V)の sin値及び cos値は以下のように求められる。
[0146] sin(v) = -cos (H) cos (V)
cos v) = sin(v) )
sm (hノ = cos (H) COS (V) / cos \ j
cos (h) =― sin (V) / cos (v)
なお、極座標モード MS2においては h = H v=Vとなる。
[0147] 一方、表示部 14として例えば VGA (Video Graphics Arrav)ディスプレイのような固 定画素出力とした場合、当該出力に合わせて表示平面 [a]の座標を表すと、図 38の (A)に示すように、
[a] = [aOO= (0, 0) , a01 = (r, 0) , · ' ·&10= (0, q) , al l = (r, q) , al2= (2r , q) , amn= (nr, mq) , · · -aMN= (Nr, Mq) ]
となる。
[0148] 当該表示平面 [a]を、図 38の(B)に示すように、 x軸に垂直に各点列が y軸及び z軸 に平行となり、かつ、中心を X軸が通り X座標が R(R=例えば魚眼半径)となるように 置いた 3次元上の平面 [PO]とすると、上記平面 [a]は、図 38の(C)にも示すように、 以下のようにして 3次元化される。
[0149] [a] = [ (χθ, yO) , (xl, yO) , · · · (xN, yM) ]
→[A] = [ (xO, yO, 1) , (xl, yO, 1) , · · · (xN, yM, 1) ]
当該行列 [A]に、図 38の (C)で示す行列 [K]を乗じた行列を [PO]とする( [PO] = [K] [A])。
[0150] 続いて、当該平面 [PO]を、図 39の (A)で示すような、上記図 15の (A), (B)の操作 入力画面 Guで設定可能なパラメータにより、図 39の(B)に示すような球面上に拡大 移動する。この場合、当該移動後の平面を平面 [P2]とすると、平面 [PO]上の点 Pjに 対応する平面 [P2]上の点は、点 Pj2 (x2, y2, z2)となる。この平面 [P2]上の各点は 、図 39の(C)に示す [ΡΟ]、 [Ρ2]、 [Χ]、 [Υ]、 [Ζ]及び [Μ]の各行列を用いて、図 3 9の(D)の計算式により求められる。
[0151] すなわち、直交座標モード MS 1のときは [Ρ2] = [Z] [Y] [X] [M] [PO]となり、極 座標モード MS2のときは [P2] = [Z] [Y] [M] [PO]となる。このようにして算出した平 面 [P2]の座標値力 点 Pj2に対応する座標値 (x2, y2, z2)を用いる。
[0152] そして、図 39の(B)において、上記平面 [P2]上の点 Pj2 (x2, y2, z2)力も上述の 図 12を用いた歪補正処理の原理と同様に処理すれば、点 Pj2 (x2, y2, z2)に対応 する結像点 Qj2を求めることができる。また、平面 [P2]上の各点についても同様な処 理を行うことで、直交座標モード MS1及び極座標モード MS2における歪補正処理 後の画像である選択領域表示画像 Gscを構成する撮像素子 112上の各画素位置が 求められ、この求めた画素位置の画素データを用いることで、歪を生じていない選択 領域表示画像 Gscが表示可能となる。
[0153] 以上説明した構成及び動作により、本実施形態における画像処理システム 40によ れば、撮像部 11の設置角度をジャイロセンサ 41により検出して、当該設置角度に応 じて領域選択モード MSを適宜切り替えることができ、ユーザの利便性が向上する。
[0154] また、ヒステリシスを持たせながら領域選択モード MSの切り替えを行うようにして ヽ るので、上記閾値 φ及び閾値 φ付近で設置角度のぶれが生じたとき、ぶれに応じ
1 2
て領域選択モード MSが頻繁に切り替わってしまうことがなぐユーザを混乱させてし まうことがない。
[0155] なお、方向検出センサとして上記ジャイロセンサ 41の代わりに例えば重力センサ等 の他のセンサを用いて撮像部 11の設置角度を検出するようにしても構わな 、。
[0156] また、本実施形態においては、撮像部 11の設置角度に応じて領域選択モード MS を切り替えるようにしていた力 例えば、撮像部 11が、物体に接触したか否かに応じ て領域選択モード MSを切り替えるようにしても構わな 、。
[0157] 図 40は、接触に応じて表示モードを切り替える方法を概念的に示した図である。例 えば、配管 95内を撮像部 11が図 40の矢印 T方向へ移動する場合、処理制御部 13 5は、配管 95内では例えば極座標モード MS2に設定して、配管 95の周囲を撮像す る。また、配管 95の端部において壁面 96に接触した場合、処理制御部 135は、当該 壁面を撮像するために直交座標モード MS 1に切り替えるようにしても構わな 、。この 場合、画像処理システムは、接触を検知するための検知センサを設けて、検知結果 を画像処理部 13の処理制御部 135に入力すればよい。その検知センサは、メカ-力 ルなセンサでもよいし、光センサであってもよい。
[0158] また、直交座標モード MS1と極座標モード MS2の自動切り替えは、方向検出セン サゃ検知センサ等を用いることなく実施することもできる。次に、センサを用いることな く直交座標モード MS 1と極座標モード MS2の自動切り替えを行う場合について説 明する。
[0159] ここで、自動切り替え動作を容易に理解できるものとするため、撮像部 11の視野を 例えば 270度として説明する。図 41は、撮像光学部 111として超広角レンズを用いる ことで 270度の視野を得た場合を示して ヽる。撮像光学部 111に入射された光は撮 像素子 112の方向に進み、撮像素子 112のセンサ面上に 270度の視野の広視野画 像 Gcが形成される。
[0160] また、図 42に示すように、 270度の視野を有した撮像部 11を、視野の中心方向で ある矢印 OCtの方向が水平方向に対して 45度上向きとなるように設けると、前半球 視野 53hと上半球視野 53uが得られている状態となる。
[0161] 図 43は、 270度の視野を有した撮像部 11の設置例を示している。例えば船の舳先 に、視野の中心方向が水平方向に対して 45度上向きとなるように撮像部 11を設ける 。また、撮像部 11の後方には座席 FSが設けられた状態となっている。このように撮像 部 11を設けた場合、前方の景色を表示部 14に表示させるときには、前半球視野の 場合に適したモードである直交座標モード MS 1で動作を行うものとすれば、所望の 方向の風景に選択領域を設定することが容易となり、歪のない所望の方向の風景画 像を表示部 14に表示させることができる。また、後方の座席 FSに座っている乗客を 表示部 14に表示させるときには、上半球視野や下半球視野の場合に適したモード である極座標モード MS2で動作を行うものとすれば、所望の方向の乗客に選択領域 を設定することが容易となり、歪のない所望の方向の乗客画像を表示部 14に表示さ せることができる。このため、画像処理部 13は、選択領域をいずれの方向に設定す るかに応じて領域選択モード MSを自動的に切り替えて、撮像光学部 111の歪が補 正されて!/、る画像を表示部 14に表示できるようにする。
[0162] ここで、選択領域の方向や選択領域の範囲を示す角度範囲等を入力情報 PS等に よって指定して選択領域が設定される場合、選択領域を指定する入力情報等に基づ き、選択領域の方向を判別できる。また、上述のように、選択領域と画像領域 ARsは 対応して!/、ることから、歪補正処理を行う画像領域 ARsの画像位置から選択領域の 設定方向を判別できる。
[0163] 図 44は、選択領域の設定方向に応じて領域選択モード MSを自動的に切り替える 場合を示している。図 43に示すように撮像部 11を設置したとき、視野が 270度の広 視野画像 Gcは、図 44に示すものとなる。なお、広視野画像 Gcの中心は、撮像光学 部 111の光軸方向であり、視野の中心方向が水平方向に対して 45度上向きとなるよ うに撮像部 11が設けられているとき、水平方向の前方正面位置は例えば視野が 90 度に相当する画像上の点 Pfとなる。
[0164] 図 44の (A)では、前方正面の画像を含むように領域 AS1を設けて、画像領域 ARs
(図示せず)の例えば中央位置が領域 ASlに含まれるように選択領域の方向が設定 されているときは、直交座標モード MS 1に設定する。また、後方の画像を含むように 領域 AS2を設けて、画像領域 ARsの例えば中央位置が領域 AS2に含まれるように選 択領域の方向が設定されているときは、極座標モード MS2に設定する。なお、画像 領域 ARsの中央位置が領域 ASl, AS2に含まれないときは、設定されている領域選 択モード MSを保持する。
[0165] また、図 44の(B)に示すように、広視野画像 Gcの領域を予めマトリクス状に分割し て各領域に対して設定する領域選択モード MSを割り当てておき、画像領域 ARsの 例えば中央位置がいずれの領域に含まれるかに応じて領域選択モード MSを設定 するものとしてもよい。例えば、前方の画像を含む各領域 ASmlに対しては、設定す る領域選択モード MSとして直交座標モード MS1を割り当てておく。また、後方の画 像を含む各領域 ASm2に対しては、設定する領域選択モード MSとして極座標モー ド MS2を割り当てておく。ここで、選択領域に対応する画像領域 ARsの中央位置が 領域 ASmlに該当するときは直交座標モード MS1に設定する。また、画像領域 ARs の中央位置が領域 ASm2に該当するときは極座標モード MS2に設定する。
[0166] このようにすれば、いずれの視野方向の画像を表示部 14に表示しているかに応じ て、領域選択モード MSを最適なモードに自動的に設定することが可能となり、所望 の方向に位置する被写体の画像を容易に表示部 14に表示できる。
[0167] また、センサを用いていないことから、画像処理システム 10, 20, 30のいずれにも 適用することが可能である。さらに、センサを用いる画像処理システム 40に適用して もよい。この場合、ジャイロセンサ 41からのセンサ信号 ESに基づき、撮像部 11の傾 きに応じて領域 ASl, AS2, ASml, ASm2の位置や領域サイズを自動的に調整す れば、撮像部 11が水平方向に対して 45度上向きとなるように設けられて 、なくとも、 撮像部 11が水平方向に対して 45度上向きとされている場合と同等の特性で領域選 択モード MSの切り替え処理を行うことができる。また、撮像部 11の傾きに応じて領域 ASl, AS2, ASml, ASm2の位置や領域サイズを設定できるようにしておけば、領域 選択モード MSの切り替え特性を自由に設定することも可能となる。
[0168] ここで、領域選択モード MSを自動的に切り替える場合、各領域選択モードに応じ た GUI表示とすれば、 Vヽずれの領域選択モード MSに設定されて!ヽるか容易に判別 できる。
図 45は、領域選択モード MSを自動的に切り替える場合の GUI表示と画像領域 ARs の移動方向を示している。直交座標モード MS1に設定されたときは、図 45の(A)に 示すように方向ボタン Gua2として、例えば「Up」「Down」「Right」「Left」ボタンを設ける 。なお、図 45の(B)は、方向ボタン Gua2が操作されたときの全体画像 Gcpにおける画 像領域 ARsの移動方向を例示している。極座標モード MS2に設定されたときは、図 45の(C)に示すように方向ボタン Gud2として、例えば「Center」「Outer」「Right rotatio nj「Left rotationボタンを設ける。なお、図 45の(D)は、方向ボタン Gud2が操作され たときの全体画像 Gcpにおける画像領域 ARsの移動方向を例示している。
[0169] このように、各領域選択モードに応じた GUI表示とすれば、ユーザは 、ずれの領域 選択モードに設定されている力容易に判別できる。また、所望の方向に位置する被 写体の画像を表示部 14に表示する際に、ユーザは方向ボタンの選択を容易に行う ことができる。
[0170] さらに、撮像部 11は鉛直方向(あるいは水平方向)に対する傾き角度に応じて自動 切り替え動作を停止して、直交座標モード MS1あるいは極座標モード MS2のいず れかに設定するものとしてもよい。図 46に示すように、角度 φが「337. 5度≤ φぐ 2 2. 5度」「157. 5度≤ φ < 202. 5度」であるときは、画像領域 ARsの位置にかかわら ず極座標モード MS2に設定する。角度 φが「67. 5度≤ φく 112. 5度」「247. 5度 ≤ φ < 292. 5度」であるときは、画像領域 ARsの位置にかかわらず直交座標モード MS1に設定する。角度 φが「22. 5度≤ φく 67. 5度」「112. 5度≤ φく 157. 5度 」「202. 5度≤ φく 247. 5度」「292. 5度≤ φく 337. 5度」であるときは混合モード として、上述のように画像領域 ARsの位置に応じて直交座標モード MS 1あるいは極 座標モード MS2に自動的に設定する。
[0171] 図 47は、混合モードを含めた領域選択モードの切り替え動作を示すフローチャート である。処理制御部 135は角度検出を行い、撮像部 11の傾き角度 φを検出する(S T3301)。次に、処理制御部 135は検出した傾き角度 φに基づき混合モードに設定 する力否かを判別する(ST3302)。ここで、混合モードに設定しないとき (NO)、処 理制御部 135は、角度 φの検出結果に基づき、領域選択モードを直交座標モード MS 1ある!/、は極座標モード MS2の!、ずれに設定するが検出する(ST3303)。また 、混合モードに設定するとき(ST3302の YES)、処理制御部 135は、選択領域の位 置に基づき、領域選択モードを直交座標モード MS 1あるいは極座標モード MS2の V、ずれに設定するが検出する(ST3304)。
[0172] ST3303あるいは ST3304で領域選択モードの検出が完了すると、処理制御部 13 5は領域選択モードを検出した座標モードに設定する(ST3305)。次に、処理制御 部 135は、 ST3305で設定した領域選択モードに応じて GUI表示を行い ST3301に 戻る(ST3306)。このように領域選択モードを切り替えることで、ユーザにとってより 使 、やす 、インタフェースを提供することができる。
[0173] 図 48は、方向ボタンが操作されたときの動作を示すフローチャートである。処理制 御部 135は、領域選択モード MSを直交座標モード MS 1に設定しているか否かを判 別する(ST3401)。
[0174] ここで、処理制御部 135は、直交座標モード MS 1に設定しているとき (YES)、入力 情報 PSに基づき方向ボタン操作が行われた力否かを判別する(ST3402)。ここで、 方向ボタン操作が行われていないと判別したとき(NO)は ST3401に戻り、方向ボタ ン操作が行われたと判別したとき (YES)は、「Right」ボタンの操作であるか否かを判 別する(ST3403)。
[0175] 処理制御部 135は、「Right」ボタンの操作であると判別したとき (YES)、選択領域 を右方向の位置に切り替える処理を行い ST3401に戻る(ST3404)。処理制御部 1 35は、「Right」ボタンの操作でないと判別したとき(ST3403の NO)は、「Left」ボタン の操作である力否かを判別する(ST3405)。
[0176] 処理制御部 135は、「Left」ボタンの操作であると判別したとき (YES)、選択領域を 左方向の位置に切り替える処理を行 、ST3401に戻る (ST3406)。処理制御部 13 5は、「Left」ボタンの操作でないと判別したとき(ST3405の NO)は、「Up」ボタンの操 作であるか否かを判別する(ST3407)。 [0177] 処理制御部 135は、「Up」ボタンの操作であると判別したとき (YES)、選択領域を 上方向の位置に切り替える処理を行 、ST3401に戻る (ST3408)。処理制御部 13 5は、「Up」ボタンの操作でないと判別したとき(ST3407の NO)は、「Down」ボタンの 操作であるとして、選択領域を下方向の位置に切り替える処理を行 ヽ ST3401に戻 る(ST3409)。
[0178] 処理制御部 135は、極座標モード MS2に設定しているとき(ST3401の NO)、入 力情報 PSに基づき方向ボタン操作が行われた力否かを判別する(ST3410)。ここ で、方向ボタン操作が行われていないと判別したとき (NO)は ST3401に戻り、方向 ボタン操作が行われたと判別したとき(YES)は、「Right rotationボタンの操作である か否かを判別する(ST3411)。
[0179] 処理制御部 135は、「Right rotation]ボタンの操作であると判別したとき (YES)、選 択領域を右方向に回転させる処理を行い ST3401に戻る(ST3412)。処理制御部 135は、「Right rotationjボタンの操作でないと判別したとき(ST3411の NO)は、「L eft rotationボタンの操作であるか否かを判別する(ST3413)。
[0180] 処理制御部 135は、「Left rotation]ボタンの操作であると判別したとき(YES)、選 択領域を左方向に回転させる処理を行い ST3401に戻る(ST3414)。処理制御部 135は、「Left rotationjボタンの操作でないと判別したとき(ST3413の NO)は、「Ce nterjボタンの操作であるか否かを判別する(ST3415)。
[0181] 処理制御部 135は、「Center」ボタンの操作であると判別したとき (YES)、選択領域 を中心方向に位置に切り替える処理を行 、ST3401に戻る(ST3416)。処理制御 部 135は、「Center」ボタンの操作でないと判別したとき(ST3415の NO)は、「Outer 」ボタンの操作であるとして、選択領域を中心方向とは逆方向である外方向の位置に 切り替える処理を行 、ST3401に戻る(ST3417)。
[0182] このような処理を行うことで、所望の方向に選択領域を容易に切り替えることができ る。すなわち、所望の方向に位置する被写体の画像を、撮像光学部 111の歪を補正 した状態として表示部 14の画面上に表示できる。
[0183] ところで、本実施形態の画像処理システムでは、表示モード MHとして上述の複数 のモードを有しており、例えば選択画像表示モード MH2に設定されて 、る状態では 、いずれの視野方向に選択領域が設定されているか判別することができない。したが つて、選択領域がどのように設定されているかを確認するためには、表示モード MH を全体画像表示モード MH1あるいは両方表示モード MH3に変更する操作が必要 となってしまう。そこで、選択領域の切り替えや領域選択モード MSの切り替え等が行 われたときに、全体画像 Gcpが少なくとも所定時間表示された状態となるように表示 モードの変更を行うことで、表示モードの変更操作をユーザが行わなくとも選択領域 の確認を容易に行えるようにする。なお、本実施形態における画像処理システムの構 成は上記図 32に示した画像処理システム 40と同様のため、説明を省略する。
[0184] 図 49及び図 50は、全体画像 Gcpの表示動作を示しており、図 49は、選択領域の 切り替えに応じて表示モード MHを変更する様子を示した図、図 50は、領域選択モ ード MSの切り替えに応じて表示モード MHを変更する様子を示した図である。
[0185] 画像処理システムの画像処理部 13は、全体画像 Gcpが表示されない表示モードへ の表示モード切り替えが行われたとき、また、全体画像 Gcpが表示されない表示モー ドに設定されている場合に、領域選択モード MSの切り替えや選択領域の切り替え 指示が行われたとき、設定されて!ヽる表示モードにかかわらず自動的に全体画像 Gc Pが表示される表示モードに所定時間変更する。
[0186] 図 49の (A)は、選択画像表示モード MH2で表示が行われて 、る場合を示して!/ヽ る。選択領域の切り替え指示が行われて選択領域の切り替えが行われた場合、設定 されている表示モードに応じた表示画像に対して全体画像 Gcpを合成する処理を行 い、合成処理後の画像を新たに表示画像として表示させる。例えば、表示モード MH を両方表示モード MH3に変更して、図 49の(B)に示すように全体画像 Gcpも表示さ せる。その後、所定時間が経過したときには、全体画像 Gcpの合成処理を終了して全 体画像 Gcpを表示画面から消去する。例えば、表示モード MHを選択画像表示モー ド MH2に戻して、図 49の(C)に示すように全体画像 Gcpを消去させる。また、選択領 域の切り替え指示が行われて選択領域が元の位置に戻された場合、表示モード MH を所定時間だけ両方表示モード MH3に変更して、図 49の(C)、図 49の(D)及び図 49の(A)の順に表示を行わせる。
[0187] 図 50の (A)は、選択画像表示モード MH2で表示が行われており、極座標モード M S 2に設定されている場合を示している。ここで、領域選択モード MSが直交座標モー ド MS1に切り替えられた場合には、設定されている表示モードに応じた表示画像に 対して全体画像 Gcpを合成する処理を行 ヽ、合成処理後の画像を新たに表示画像と して表示させる。例えば、表示モード MHを両方表示モード MH3に変更して、図 50 の(B)に示すように全体画像 Gcpも表示させる。その後、所定時間が経過したときに は、全体画像 Gcpの合成処理を終了して全体画像 Gcpを表示画面から消去する。例 えば、表示モード MHを選択画像表示モード MH2に戻して、図 50の(C)に示すよう に全体画像 Gcpを消去させる。
[0188] また、領域選択モード MSが直交座標モード MS1から極座標モード MS2に切り替 えられた場合にも、表示モード MHを所定時間だけ両方表示モード MH3に変更して 、図 50の(C)、図 50の(D)及び図 50の(A)の順に表示を行わせる。なお、所定時間 とは例えば 3秒、 5秒等の数秒である力 これに限られるものではない。
[0189] さらに、画像処理部 13は、領域選択モード MSの切り替わり時のみならず、選択領 域の切り替え指示が行われたときにも全体画像 Gcpを表示して、所定時間経過後に 選択領域表示画像 Gscのみの表示に変更することも可能である。
[0190] また、画像処理部 13は、選択領域の切り替え指示によって選択領域の切り替えが 生じる場合や領域選択モード MSの切り替えが行われたときに表示モードを所定期 間変更するだけでなぐ撮像方向が変化して選択領域に対応する画像領域 ARsの 画像が変更された場合にも、表示モードを所定期間変更するようにしてもよい。例え ば撮像部 11による撮像方向が変化すると広視野画像 Gcの画像が変化することから 、撮像素子 112のセンサ面上における画像領域 ARsの位置が変化していなくとも選 択領域表示画像 Gscは変化したものとなってしまう。すなわち、選択領域が変更され た状態となる。このため、例えばジャイロセンサ 41からのセンサ信号 ESに基づき撮像 領域の変更を判別したときには、所定期間表示モードの変更を行い全体画像 Gcpを 表示する。このようにすれば、ユーザは、所望の方向に位置する被写体の画像を表 示部 14に表示するために選択領域の切り替え指示をどのように行えばよ!、か容易に 判断できる。
[0191] 図 51は、図 49や図 50に示した表示モードの変更を行う場合の、画像処理システム の動作の流れを示したフローチャートである。画像処理部 13の処理制御部 135は、 選択領域の切り替え (移動)があった力否かを判別する(ST3601)。すなわち、選択 領域の切り替え指示を行うための上記方向ボタン Gua2, Gud2や方角ボタン Gub2に 対するユーザ操作を示す入力情報 PSが入力部 12から供給された力否か、あるいは 上述の軌跡情報に基づいて自動的に選択領域を切り替える場合に選択領域の切り 替えが生じた力否かを判定する。ここで、選択領域の切り替えがあった場合 (YES) には、画像出力処理部 134に表示制御情 ¾JHを供給して、画像出力処理部 134に より、全体画像 Gcp及び選択領域表示画像 Gscを合成した合成画像を表示部 14で 表示させる(ST3606)。そして、処理制御部 135は、当該合成画像の出力から所定 時間が経過したカゝ否かを判定し (ST3607)、所定時間が経過した場合 (YES)には 、表示制御情! BJHを画像出力処理部 134に供給して、合成画像から全体画像 Gcp が消去された一画面の選択領域表示画像 Gscの表示に変更する(ST3608)。すな わち、処理制御部 135によって画像出力処理部 134を制御して、図 49や図 50に示 すように、所定時間経過後に、表示モード MHを両方表示モード MH3から選択画像 表示モード MH2に変更する。
[0192] 画像処理部 13の処理制御部 135は、選択領域の切り替えがあった力否かを判別 で、選択領域の切り替えがないと判別した場合 (NO)、処理制御部 135は、上記表 示モード MHや領域選択モード MSのモード切り替えがあるか否力、すなわち、モー ドを切り替えるための上記「選択」ボタン Gual, Gublや「Menu」ボタン Guc3に対する ユーザ操作を示す入力情報 PSが入力部 12から供給されたカゝ否かを判定する(ST3 602)。ここで、モード切り替えがあった場合 (YES)、上記 ST3606以降の処理を行 う。また、画像処理部 13は、 ST3602においてモードの切り替えがないと判定した場 合 (NO)、撮像部 11の姿勢 (設置角度)に変化があった力否かを判定する(ST360 3)。すなわち、処理制御部 135は、上記図 32で示したジャイロセンサ 41が検知した 傾斜角度を示すセンサ信号 ESに基づき、例えば当該検知結果と、予め定めた初期 値との相違を判定する。撮像部 11の設置角度に変化があった場合 (YES)、画像処 理部 13は、上記 ST3606以降の処理を行う。
[0193] さらに、処理制御部 135は、 ST3603において撮像部 11の設置角度に変化がない と判定した場合 (NO)には、入力部 12に対する何らかのユーザ操作がある力否かを 判定して、ユーザ操作がある場合 (YES)には上記 ST3606以降の処理を行い、ュ 一ザ操作がない場合 (NO)には上記 ST3601以降の処理を繰り返す。なお、当該ュ 一ザ操作は、上記表示モード MHや領域選択モード MSを切り替える操作や、選択 領域を切り替えるための操作である場合には、上記 ST3601又は ST3602の処理と 同様となるため、 ST3604におけるユーザ操作はそれら以外の操作を判定対象とす る。
[0194] なお、図 51では、選択領域の切り替えがないと判別した場合に、モード切り替えが あるか否か、姿勢変化があるカゝ否カゝ、操作入力があるカゝ否かを順番に判定するものと したが、図 52に示す ST3605で、選択領域の切り替え、モード切り替え、姿勢変化、 操作入力のいずれかがあるか否かを判別して、いずれかがあると判別したとき ST36 06からの処理を行うものとしても、全体画像 Gcpを所定時間表示することが可能とな る。
[0195] 以上の処理により、選択領域の切り替え、表示モード MHや領域選択モード MSの 切り替え、撮像部 11の姿勢の変化及びユーザ力ゝらの操作入力があった場合、全体 画像 Gcpが少なくとも所定時間表示された状態となるように表示が行われる。したがつ て、ユーザは、選択領域の切り替えやモードの切り替えが行われた場合に、選択領 域がどのように設定されて!、るかを全体画像 Gcp中の画像領域 ARsの強調画像 Gs によって容易に確認することができるとともに、確認後は、選択領域表示画像 Gscを 全体画像 Gcpに邪魔されることなく観察することができる。
[0196] なお、画像処理部 13は、まず両方表示モード MH3で全体画像 Gcpを表示してか ら所定時間経過後に全体画像 Gcpのない選択画像表示モード MH2に切り替えるの とは逆に、上記表示モード MHや領域選択モード MS等の切り替えがあった場合に は、まず選択画像表示モード MH2で選択領域表示画像 Gscのみを出力してから、 所定時間経過後に、全体画像 Gcpが合成された両方表示モード MH3で合成画像を 表示するように画像データ DVdを生成しても構わない。これにより、まず表示部 14に 表示された選択領域表示画像 Gscを死角なく確認してから、所定時間経過後に表示 されるようになった選択領域表示画像 Gscを観察して、現在の選択領域を確認するこ とがでさる。
[0197] 図 53は、表示モード切替処理の別の形態を示した図である。画像処理部 13は、上 記合成画像を表示する際に、例えば合成画像として、選択領域表示画像 Gscを縮小 して全体画像 Gcpと重複しな 、ように一画面に並べて出力するようにしても構わな!/ヽ 。また、全体画像 Gcpを選択領域表示画像 Gsc上に半透明状態で合成して出力する ようにしても構わない。いずれにしても、画像処理部 13は、全体画像 Gcpを表示しな 力 Sらューザが選択領域表示画像 Gscを死角なく観察できるような処理を行えばよい。
[0198] さらに、画像処理部 13は、上記所定時間を一定値とせずに、動的に変化させるよう にしても構わない。例えば、領域選択モード MSが切り替わった場合には、選択領域 の位置が大幅に変化することがあるため、その場合には、上記所定時間を、同一の 領域選択モード MSにおける選択領域の切り替えや撮像部 11の姿勢等の変化があ つた場合の上記所定時間に比べて長くして、ユーザが選択領域を確実に確認できる ようにしてもよい。また例えば、分割表示モード MH4において分割領域が増えると、 複数の選択領域を確認するのに時間を要することが考えられるため、分割領域が増 えるような (全体画像 Gcp中の強調画像 Gsの数が増えるような)操作をユーザが行つ た場合には、他のモード切り替えや姿勢変化等の場合に比べて所定時間を長くして ユーザが確実に選択領域を確認できるようにしてもよ!、。
産業上の利用可能性
[0199] この発明では、画像データで表される視野に対して、直交座標系を用いて視野の 一部の領域を示す選択領域を選択する第 1の領域選択モードと、画像データで表さ れる視野に対して、極座標系を用いて視野の一部の領域を示す選択領域を選択す る第 2の領域選択モードが設けられて、設定された第 1又は第 2の領域選択モードに おいて選択された選択領域に相当する画像データの歪補正が行われる。このため、 撮像された広画角画像に対して所望の領域を選択領域として設定して、この選択領 域の画像の確認等を行う場合に好適である。

Claims

請求の範囲
[1] 被写体力ゝらの光学像を歪を与える撮像光学部を介して撮像することで得られる、前 記撮像光学部の歪を含む画像データを処理する画像処理装置において、
前記画像データで表される視野に対して、直交座標系を用いて前記視野の一部の 領域を示す選択領域を選択する第 1の領域選択モードと、前記画像データで表され る視野に対して、極座標系を用いて前記視野の一部の領域を示す選択領域を選択 する第 2の領域選択モードとを選択的に設定する領域選択モード設定部と、 前記領域選択モード設定部で設定された第 1又は第 2の領域選択モードにおいて 選択された選択領域に相当する画像データを歪補正することにより得た被歪補正デ ータを出力するデータ出力部とを備える画像処理装置。
[2] 前記選択領域に相当する前記画像データを歪補正する歪補正部をさらに備える、 請求の範囲第 1項記載の画像処理装置。
[3] 前記歪補正部は、前記選択領域に相当する前記画像データのみを歪補正する、 請求の範囲第 2項記載の画像処理装置。
[4] 前記第 1の領域選択モードで前記選択領域を切り替えるとき、前記直交座標系の 座標値を変更することで前記選択領域の切り替えを行! \前記第 2の領域選択モー ドで前記選択領域の切り替えるとき、前記極座標系の偏角および Zまたは動径を変 更することで前記選択領域の切り替えを行う制御部をさらに備える、請求の範囲第 1 項記載の画像処理装置。
[5] 前記撮像光学部と該撮像光学部を介して入射する光学像の画像データを生成す る撮像素子とを有する撮像部をさらに備える、請求の範囲第 1項記載の画像処理装 置。
[6] 前記撮像光学部は魚眼レンズを用いて構成した、請求の範囲第 5項記載の画像処 理装置。
[7] 前記撮像光学部に入射する光学像の入射方向を検出する方向検出センサをさら に備え、
前記領域選択モード設定部は、前記方向検出センサ力ものセンサ信号に基づき、 前記第 1の領域選択モードと前記第 2の領域選択モードのいずれか一方を選択する 、請求の範囲第 5項記載の画像処理装置。
[8] 前記領域選択モード設定部は、前記方向検出センサ力 のセンサ信号に基づいて 判別した鉛直方向に対する角度に応じて、前記第 1の領域選択モードと前記第 2の 領域選択モードの!/、ずれか一方を選択する、請求の範囲第 7項記載の画像処理装 置。
[9] 前記領域選択モード設定部は、前記角度が第 1の閾値を超えた力否かに応じて前 記第 1の領域設定モードから前記第 2の領域設定モードへ切り替え、前記角度が前 記第 1の閾値とは異なる第 2の閾値を超えた力否かに応じて前記第 2の領域選択モ ードから前記第 1の領域選択モードへ切り替えを行う、請求の範囲第 8項記載の画像 処理装置。
[10] 物体との接触を検知する検知センサをさらに備え、
前記領域選択モード設定部では、前記検知センサ力ものセンサ信号に基づき、物 体との接触が検知されたか否かに応じて、前記第 1の領域選択モードと前記第 2の領 域選択モードのいずれか一方を選択する、請求の範囲第 1項記載の画像処理装置
[11] 前記領域選択モード設定部では、前記選択領域の選択位置に応じて、前記第 1の 領域選択モードと前記第 2の領域選択モードの 、ずれか一方を選択する、請求の範 囲第 1項記載の画像処理装置。
[12] 前記選択領域の選択指示を含む入力情報の生成を行う入力部をさらに備え、 前記領域選択モード設定部は、前記入力情報に含まれて!/、る前記選択指示に基 づき前記選択領域の選択を行う、請求の範囲第 1項記載の画像処理装置。
[13] 前記撮像光学部の歪を含む画像データを記憶した記憶装置をさらに備え、
前記記憶装置力 読み出した画像データに対して処理を行う、請求の範囲第 1項 記載の画像処理装置。
[14] グラフィカルユーザインタフェース表示を行う表示部をさらに備え、
前記領域選択モード設定部は、前記第 1の領域選択モードと前記第 2の領域選択 モードとで前記グラフィカルユーザインタフェース表示の切り替えを行う、請求の範囲 第 1項記載の画像処理装置。
[15] 被写体力ゝらの光学像を歪を与える撮像光学部を介して撮像することで得られる、前 記撮像光学部の歪を含む画像データを処理する画像処理方法において、
前記画像データで表される視野に対して、直交座標系を用いて前記視野の一部の 領域を示す選択領域を選択する第 1の領域選択モードと、前記画像データで表され る視野に対して、極座標系を用いて前記視野の一部の領域を示す選択領域を選択 する第 2の領域選択モードとを選択的に設定する領域選択モード設定ステップと、 前記領域選択モード設定ステップで設定された第 1又は第 2の領域選択モードで 選択された選択領域に相当する前記画像データを歪補正することにより得た被歪補 正データを出力するデータ出力ステップとを備える画像処理方法。
[16] 被写体力ゝらの光学像を歪を与える撮像光学部を介して撮像することで得られる、前 記撮像光学部の歪を含む画像データを処理する画像処理をコンピュータに行わせる プログラムであって、
前記画像データで表される視野に対して、直交座標系を用いて前記視野の一部の 領域を示す選択領域を選択する第 1の領域選択モードと、前記画像データで表され る視野に対して、極座標系を用いて前記視野の一部の領域を示す選択領域を選択 する第 2の領域選択モードとを選択的に設定する領域選択モード設定ステップと、 前記領域選択モード設定ステップで設定された第 1又は第 2の領域選択モードで 選択された選択領域に相当する前記画像データを歪補正することにより得た被歪補 正データを出力するデータ出力ステップとを備えるプログラム。
[17] 被写体力ゝらの光学像を歪を与える撮像光学部を介して撮像することで得られる、前 記撮像光学部の歪を含む画像データを処理する画像処理をコンピュータに行わせる プログラムを記録した記録媒体であって、
前記画像データで表される視野に対して、直交座標系を用いて前記視野の一部の 領域を示す選択領域を選択する第 1の領域選択モードと、前記画像データで表され る視野に対して、極座標系を用いて前記視野の一部の領域を示す選択領域を選択 する第 2の領域選択モードとを選択的に設定する領域選択モード設定ステップと、 前記領域選択モード設定ステップで設定された第 1又は第 2の領域選択モードで 選択された選択領域に相当する前記画像データを歪補正することにより得た被歪補 正データを出力するデータ出力ステップとを備えるプログラムを記録した記録媒体。
PCT/JP2006/322498 2005-11-11 2006-11-10 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体 WO2007055335A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP06823320A EP1954029B1 (en) 2005-11-11 2006-11-10 Image processing device, image processing method, program thereof, and recording medium containing the program
CN2006800421038A CN101305595B (zh) 2005-11-11 2006-11-10 图像处理设备以及图像处理方法
US12/084,349 US8254713B2 (en) 2005-11-11 2006-11-10 Image processing apparatus, image processing method, program therefor, and recording medium in which the program is recorded
DE602006021225T DE602006021225D1 (de) 2005-11-11 2006-11-10 Bildverarbeitungseinrichtung, bildverarbeitungsverfahren, programm dafür und das programm enthaltendes aufzeichnungsmedium
KR1020087011221A KR101329470B1 (ko) 2005-11-11 2006-11-10 화상 처리 장치, 화상 처리 방법 및 그 프로그램을 기록한 기록 매체
JP2007544204A JP5136059B2 (ja) 2005-11-11 2006-11-10 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005327749 2005-11-11
JP2005-327749 2005-11-11
JP2006176915 2006-06-27
JP2006-176915 2006-06-27

Publications (1)

Publication Number Publication Date
WO2007055335A1 true WO2007055335A1 (ja) 2007-05-18

Family

ID=38023329

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2006/322498 WO2007055335A1 (ja) 2005-11-11 2006-11-10 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体
PCT/JP2006/322499 WO2007055336A1 (ja) 2005-11-11 2006-11-10 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体と撮像装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/322499 WO2007055336A1 (ja) 2005-11-11 2006-11-10 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体と撮像装置

Country Status (6)

Country Link
US (2) US8254713B2 (ja)
EP (2) EP1950954B1 (ja)
JP (2) JP5136060B2 (ja)
KR (2) KR101329470B1 (ja)
DE (2) DE602006021219D1 (ja)
WO (2) WO2007055335A1 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085267A (ja) * 2010-10-14 2012-04-26 Sony Corp 撮像装置、撮像システム及び撮像方法
JP2012244480A (ja) * 2011-05-20 2012-12-10 Toshiba Teli Corp 全方位監視画像表示処理システム
JP2012253620A (ja) * 2011-06-03 2012-12-20 Sony Computer Entertainment Inc 画像処理装置
JP2014106888A (ja) * 2012-11-29 2014-06-09 Brother Ind Ltd 作業補助システムおよびプログラム
JP2015018013A (ja) * 2013-07-08 2015-01-29 株式会社リコー 表示制御装置、プログラム及び記録媒体
JP2016025516A (ja) * 2014-07-22 2016-02-08 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2016039539A (ja) * 2014-08-08 2016-03-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2016123127A (ja) * 2016-03-03 2016-07-07 パナソニックIpマネジメント株式会社 表示装置及びコンピュータプログラム
JP2017058812A (ja) * 2015-09-15 2017-03-23 カシオ計算機株式会社 画像表示装置、画像表示方法及びプログラム
JP2017208658A (ja) * 2016-05-17 2017-11-24 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018107583A (ja) * 2016-12-26 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018139096A (ja) * 2016-11-30 2018-09-06 株式会社リコー 情報処理装置およびプログラム
JP2018174468A (ja) * 2017-03-31 2018-11-08 キヤノン株式会社 映像表示装置、映像表示装置の制御方法及びプログラム
JP2018201065A (ja) * 2017-05-25 2018-12-20 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
JP2018206205A (ja) * 2017-06-07 2018-12-27 村田機械株式会社 魚眼画像補正方法、魚眼画像補正プログラム及び魚眼画像補正装置。
JP2019009507A (ja) * 2017-06-20 2019-01-17 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、監視システム
JPWO2018043135A1 (ja) * 2016-08-31 2019-06-24 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP2020006177A (ja) * 2018-07-06 2020-01-16 メドス・インターナショナル・エスエイアールエルMedos International SARL カメラスコープ電子可変プリズム
JP2021051593A (ja) * 2019-09-25 2021-04-01 株式会社リコー 画像処理システム、画像処理装置および方法
US11651471B2 (en) 2011-02-10 2023-05-16 Panasonic Intellectual Property Management Co., Ltd. Display device, computer program, and computer-implemented method

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288354A (ja) 2006-04-13 2007-11-01 Opt Kk カメラ装置、画像処理装置および画像処理方法
JP2008225522A (ja) * 2007-03-08 2008-09-25 Sony Corp 画像処理装置、カメラ装置、画像処理方法、およびプログラム
JP5109803B2 (ja) 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP5349839B2 (ja) * 2007-06-22 2013-11-20 キヤノン株式会社 生体情報イメージング装置
JP4940050B2 (ja) * 2007-08-09 2012-05-30 キヤノン株式会社 画像データに歪曲収差補正を施す画像処理方法、プログラム、および、記録媒体
JP5067336B2 (ja) * 2007-12-26 2012-11-07 大日本印刷株式会社 画像変換装置および画像変換方法
JP5124835B2 (ja) * 2008-02-05 2013-01-23 富士フイルム株式会社 画像処理装置、画像処理方法、およびプログラム
US8018353B2 (en) * 2008-05-09 2011-09-13 Omron Scientic Technologies, Inc. Method and apparatus for zone selection in area monitoring devices
US8264598B2 (en) 2008-09-22 2012-09-11 Freedom Scientific, Inc. Multiposition handheld electronic magnifier
US8115831B2 (en) * 2008-08-04 2012-02-14 Freedom Scientific, Inc. Portable multi position magnifier camera
JP5169787B2 (ja) * 2008-12-12 2013-03-27 大日本印刷株式会社 画像変換装置および画像変換方法
EP2207342B1 (en) * 2009-01-07 2017-12-06 LG Electronics Inc. Mobile terminal and camera image control method thereof
JP5049300B2 (ja) * 2009-01-20 2012-10-17 クラリオン株式会社 障害物検出表示装置
CN102395994B (zh) * 2010-03-18 2015-06-10 松下电器产业株式会社 全景图像处理装置及全景图像处理方法
JP2011203446A (ja) * 2010-03-25 2011-10-13 Fujifilm Corp ヘッドマウントディスプレイ装置
JP5720134B2 (ja) * 2010-04-20 2015-05-20 株式会社リコー 画像検査装置及び画像形成装置
JP5672862B2 (ja) 2010-08-27 2015-02-18 ソニー株式会社 撮像装置、撮像システム及び撮像方法
US9055205B2 (en) * 2010-09-03 2015-06-09 Canon Kabushiki Kaisha Imaging control system, control apparatus, control method, and storage medium
JPWO2012081400A1 (ja) * 2010-12-14 2014-05-22 コニカミノルタ株式会社 画像処理方法、画像処理装置及び撮像装置
TWI516119B (zh) * 2011-01-25 2016-01-01 華晶科技股份有限公司 電子裝置、影像擷取裝置及其方法
WO2013114848A1 (ja) 2012-01-31 2013-08-08 パナソニック株式会社 画像処理装置及び画像処理方法
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP5925579B2 (ja) * 2012-04-25 2016-05-25 ルネサスエレクトロニクス株式会社 半導体装置、電子装置、及び画像処理方法
JP6303270B2 (ja) * 2012-05-18 2018-04-04 株式会社リコー ビデオ会議端末装置、ビデオ会議システム、映像の歪み補正方法および映像の歪み補正プログラム
JP6186775B2 (ja) * 2012-05-31 2017-08-30 株式会社リコー 通信端末、表示方法、及びプログラム
JP6071364B2 (ja) * 2012-09-19 2017-02-01 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
JP2014143678A (ja) * 2012-12-27 2014-08-07 Panasonic Corp 音声処理システム及び音声処理方法
CN106027910B (zh) * 2013-01-22 2019-08-16 华为终端有限公司 预览画面呈现方法、装置及终端
JP6104010B2 (ja) * 2013-03-26 2017-03-29 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6229283B2 (ja) * 2013-03-26 2017-11-15 株式会社リコー 画像処理装置、表示端末及び画像表示システム、並びに、画像処理方法、表示端末の制御方法、画像表示システムの制御方法及びそれらの方法のプログラム
USD768644S1 (en) * 2013-11-21 2016-10-11 Nikon Corporation Display screen with transitional graphical user interface
USD760785S1 (en) * 2014-01-13 2016-07-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
JP5835384B2 (ja) 2014-03-18 2015-12-24 株式会社リコー 情報処理方法、情報処理装置、およびプログラム
JP5835383B2 (ja) * 2014-03-18 2015-12-24 株式会社リコー 情報処理方法、情報処理装置、およびプログラム
US9883101B1 (en) * 2014-07-23 2018-01-30 Hoyos Integrity Corporation Providing a real-time via a wireless communication channel associated with a panoramic video capture device
JP2016025639A (ja) * 2014-07-24 2016-02-08 エイオーエフ イメージング テクノロジー リミテッド 撮像装置、画像信号転送制御方法およびプログラム
CN106664369B (zh) * 2014-09-05 2020-05-19 富士胶片株式会社 云台操作装置、相机系统及云台操作方法
KR20160045441A (ko) * 2014-10-17 2016-04-27 삼성전자주식회사 동영상 재생 방법 및 장치
CN105141827B (zh) 2015-06-30 2017-04-26 广东欧珀移动通信有限公司 一种畸变校正方法及终端
CN104994288B (zh) * 2015-06-30 2018-03-27 广东欧珀移动通信有限公司 一种拍照方法及用户终端
US10909384B2 (en) 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
CN108702441A (zh) * 2016-02-24 2018-10-23 株式会社理光 图像处理设备、图像处理系统及程序
US10824320B2 (en) * 2016-03-07 2020-11-03 Facebook, Inc. Systems and methods for presenting content
JP6942940B2 (ja) * 2016-03-14 2021-09-29 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6309176B2 (ja) * 2016-03-15 2018-04-11 三菱電機株式会社 遠隔作業支援装置、指示用端末及び現場用端末
KR20170124811A (ko) * 2016-05-03 2017-11-13 삼성전자주식회사 영상 표시 장치 및 그 동작방법
JPWO2018030319A1 (ja) * 2016-08-12 2018-08-09 パナソニックIpマネジメント株式会社 測距システム、および、移動体システム
KR102536945B1 (ko) * 2016-08-30 2023-05-25 삼성전자주식회사 영상 표시 장치 및 그 동작방법
JP6996511B2 (ja) * 2016-10-06 2022-01-17 ソニーグループ株式会社 再生装置および再生方法、並びにプログラム
WO2018102990A1 (en) * 2016-12-06 2018-06-14 SZ DJI Technology Co., Ltd. System and method for rectifying a wide-angle image
KR20180073327A (ko) * 2016-12-22 2018-07-02 삼성전자주식회사 영상 표시 방법, 저장 매체 및 전자 장치
US10521468B2 (en) * 2017-06-13 2019-12-31 Adobe Inc. Animated seek preview for panoramic videos
WO2019049331A1 (ja) * 2017-09-08 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法
JP2019054322A (ja) * 2017-09-12 2019-04-04 株式会社リコー 通信端末、画像通信システム、通信方法、及びプログラム
JP6933566B2 (ja) * 2017-11-24 2021-09-08 キヤノンメディカルシステムズ株式会社 医用画像表示装置
JP6688277B2 (ja) * 2017-12-27 2020-04-28 本田技研工業株式会社 プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
US10582181B2 (en) 2018-03-27 2020-03-03 Honeywell International Inc. Panoramic vision system with parallax mitigation
US11295541B2 (en) * 2019-02-13 2022-04-05 Tencent America LLC Method and apparatus of 360 degree camera video processing with targeted view
US11153481B2 (en) * 2019-03-15 2021-10-19 STX Financing, LLC Capturing and transforming wide-angle video information
KR20210066366A (ko) * 2019-11-28 2021-06-07 삼성전자주식회사 영상 복원 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132673A (ja) * 1998-10-28 2000-05-12 Sharp Corp 画像システム
JP2005063141A (ja) * 2003-08-12 2005-03-10 D Link Corp 画像変換システム及び画像変換方法
EP1515548A2 (en) 2003-09-12 2005-03-16 Sensormatic Electronics Corporation Imaging system and method for displaying and /or recording undistorted wide-angle image data
JP2005086279A (ja) * 2003-09-04 2005-03-31 Equos Research Co Ltd 撮像装置、及び撮像装置を備えた車両

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63205233A (ja) * 1987-02-21 1988-08-24 Photo Composing Mach Mfg Co Ltd 写真植字機
CA2635901C (en) 1995-07-27 2009-05-19 Sensormatic Electronics Corporation Image splitting, forming and processing device and method for use with no moving parts camera
US6304284B1 (en) * 1998-03-31 2001-10-16 Intel Corporation Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera
US7046275B1 (en) * 1998-10-15 2006-05-16 Ricoh Company, Ltd. Digital camera and imaging method
JP2000324386A (ja) 1999-05-07 2000-11-24 Sony Corp 魚眼レンズを用いた録画再生装置
JP4340358B2 (ja) * 1999-08-02 2009-10-07 富士フイルム株式会社 画像撮影装置
US6833843B2 (en) * 2001-12-03 2004-12-21 Tempest Microsystems Panoramic imaging and display system with canonical magnifier
US7224382B2 (en) * 2002-04-12 2007-05-29 Image Masters, Inc. Immersive imaging system
US7194699B2 (en) * 2003-01-14 2007-03-20 Microsoft Corporation Animating images to reflect user selection
US7450165B2 (en) * 2003-05-02 2008-11-11 Grandeye, Ltd. Multiple-view processing in wide-angle video camera
JP2005110202A (ja) * 2003-09-08 2005-04-21 Auto Network Gijutsu Kenkyusho:Kk カメラ装置及び車両周辺監視装置
US7839446B2 (en) * 2005-08-30 2010-11-23 Olympus Corporation Image capturing apparatus and image display apparatus including imparting distortion to a captured image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132673A (ja) * 1998-10-28 2000-05-12 Sharp Corp 画像システム
JP2005063141A (ja) * 2003-08-12 2005-03-10 D Link Corp 画像変換システム及び画像変換方法
JP2005086279A (ja) * 2003-09-04 2005-03-31 Equos Research Co Ltd 撮像装置、及び撮像装置を備えた車両
EP1515548A2 (en) 2003-09-12 2005-03-16 Sensormatic Electronics Corporation Imaging system and method for displaying and /or recording undistorted wide-angle image data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1954029A4

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016171599A (ja) * 2010-10-14 2016-09-23 ソニー株式会社 撮像装置、撮像システム及び撮像方法
US11418752B2 (en) 2010-10-14 2022-08-16 Sony Group Corporation Vehicle camera system
US10178339B2 (en) 2010-10-14 2019-01-08 Sony Corporation Capturing device, capturing system and capturing method
US11082657B2 (en) 2010-10-14 2021-08-03 Sony Group Corporation Camera system for use in a vehicle with settable image enlargement values
US9485429B2 (en) 2010-10-14 2016-11-01 Sony Corporation Capturing device, capturing system and capturing method
US9215376B2 (en) 2010-10-14 2015-12-15 Sony Corporation Capturing device, capturing system and capturing method
US10142580B2 (en) 2010-10-14 2018-11-27 Sony Corporation Capturing device, capturing system and capturing method
US9643539B2 (en) 2010-10-14 2017-05-09 Sony Corporation Capturing device, capturing system and capturing method
JP2012085267A (ja) * 2010-10-14 2012-04-26 Sony Corp 撮像装置、撮像システム及び撮像方法
US11651471B2 (en) 2011-02-10 2023-05-16 Panasonic Intellectual Property Management Co., Ltd. Display device, computer program, and computer-implemented method
JP2012244480A (ja) * 2011-05-20 2012-12-10 Toshiba Teli Corp 全方位監視画像表示処理システム
US9363466B2 (en) 2011-06-03 2016-06-07 Sony Corporation Image processing device for determining an orientation and a direction of the image processing device
JP2012253620A (ja) * 2011-06-03 2012-12-20 Sony Computer Entertainment Inc 画像処理装置
JP2014106888A (ja) * 2012-11-29 2014-06-09 Brother Ind Ltd 作業補助システムおよびプログラム
JP2015018013A (ja) * 2013-07-08 2015-01-29 株式会社リコー 表示制御装置、プログラム及び記録媒体
JP2016025516A (ja) * 2014-07-22 2016-02-08 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2016039539A (ja) * 2014-08-08 2016-03-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2017058812A (ja) * 2015-09-15 2017-03-23 カシオ計算機株式会社 画像表示装置、画像表示方法及びプログラム
JP2016123127A (ja) * 2016-03-03 2016-07-07 パナソニックIpマネジメント株式会社 表示装置及びコンピュータプログラム
JP2017208658A (ja) * 2016-05-17 2017-11-24 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JPWO2018043135A1 (ja) * 2016-08-31 2019-06-24 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP2018139096A (ja) * 2016-11-30 2018-09-06 株式会社リコー 情報処理装置およびプログラム
JP7020024B2 (ja) 2016-11-30 2022-02-16 株式会社リコー 情報処理装置およびプログラム
JP2018107583A (ja) * 2016-12-26 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018174468A (ja) * 2017-03-31 2018-11-08 キヤノン株式会社 映像表示装置、映像表示装置の制御方法及びプログラム
JP2018201065A (ja) * 2017-05-25 2018-12-20 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
US11190747B2 (en) 2017-05-25 2021-11-30 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium
JP2018206205A (ja) * 2017-06-07 2018-12-27 村田機械株式会社 魚眼画像補正方法、魚眼画像補正プログラム及び魚眼画像補正装置。
JP2019009507A (ja) * 2017-06-20 2019-01-17 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、監視システム
JP2020006177A (ja) * 2018-07-06 2020-01-16 メドス・インターナショナル・エスエイアールエルMedos International SARL カメラスコープ電子可変プリズム
JP7460336B2 (ja) 2018-07-06 2024-04-02 メドス・インターナショナル・エスエイアールエル カメラスコープ電子可変プリズム
JP2021051593A (ja) * 2019-09-25 2021-04-01 株式会社リコー 画像処理システム、画像処理装置および方法
JP7419723B2 (ja) 2019-09-25 2024-01-23 株式会社リコー 画像処理システム、画像処理装置および方法

Also Published As

Publication number Publication date
US20090160996A1 (en) 2009-06-25
JPWO2007055335A1 (ja) 2009-04-30
JP5136060B2 (ja) 2013-02-06
EP1954029B1 (en) 2011-04-06
DE602006021219D1 (de) 2011-05-19
US8254713B2 (en) 2012-08-28
JPWO2007055336A1 (ja) 2009-04-30
EP1950954B1 (en) 2011-04-06
US20090041378A1 (en) 2009-02-12
EP1954029A4 (en) 2010-02-24
US8169527B2 (en) 2012-05-01
JP5136059B2 (ja) 2013-02-06
DE602006021225D1 (de) 2011-05-19
KR101329470B1 (ko) 2013-11-13
KR101270893B1 (ko) 2013-06-05
EP1950954A4 (en) 2010-03-03
KR20080068697A (ko) 2008-07-23
EP1950954A1 (en) 2008-07-30
KR20080068698A (ko) 2008-07-23
WO2007055336A1 (ja) 2007-05-18
EP1954029A1 (en) 2008-08-06

Similar Documents

Publication Publication Date Title
JP5136059B2 (ja) 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体
JP6587113B2 (ja) 画像処理装置及び画像処理方法
JP5569329B2 (ja) 会議システム、監視システム、画像処理装置、画像処理方法及び画像処理プログラム等
KR101662074B1 (ko) 제어 장치, 카메라 시스템 및 기록 매체
CN101305595B (zh) 图像处理设备以及图像处理方法
US20150109452A1 (en) Display image formation device and display image formation method
KR20180129667A (ko) 표시 제어 장치, 표시 제어 방법 및 저장 매체
KR101718081B1 (ko) 손 제스처 인식용 초광각 카메라 시스템 및 그가 적용된 TVI(Transport Video Interface) 장치
JP2007288354A (ja) カメラ装置、画像処理装置および画像処理方法
KR102009988B1 (ko) 초광각 카메라를 이용한 렌즈 왜곡 영상 보정 카메라 시스템의 영상 보정 방법 및 그가 적용된 tvi 장치
JP2008028778A (ja) 画像処理装置、画像処理方法及びそのプログラム
JP2019032448A (ja) 制御装置、制御方法、及びプログラム
US11928775B2 (en) Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
KR102518863B1 (ko) 뷰 모드를 추천하는 모니터링 시스템
US11516390B2 (en) Imaging apparatus and non-transitory storage medium
JP2019008494A (ja) 画像処理装置
JP2021164100A (ja) 映像調整システムおよび映像調整装置
JP2013223012A (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680042103.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 12084349

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2007544204

Country of ref document: JP

Ref document number: 1020087011221

Country of ref document: KR

Ref document number: 2006823320

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE