WO2018062538A1 - 表示装置およびプログラム - Google Patents

表示装置およびプログラム Download PDF

Info

Publication number
WO2018062538A1
WO2018062538A1 PCT/JP2017/035654 JP2017035654W WO2018062538A1 WO 2018062538 A1 WO2018062538 A1 WO 2018062538A1 JP 2017035654 W JP2017035654 W JP 2017035654W WO 2018062538 A1 WO2018062538 A1 WO 2018062538A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display device
display
moving
unit
Prior art date
Application number
PCT/JP2017/035654
Other languages
English (en)
French (fr)
Inventor
祐輝 勝俣
直樹 關口
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to US16/335,794 priority Critical patent/US11470253B2/en
Priority to JP2018542967A priority patent/JP7131388B2/ja
Priority to CN201780073393.0A priority patent/CN109997171B/zh
Publication of WO2018062538A1 publication Critical patent/WO2018062538A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/815Camera processing pipelines; Components thereof for controlling the resolution by using a single image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Definitions

  • the present invention relates to a display device and a program.
  • An imaging apparatus that is attached to a moving person or object and is suitable for capturing a moving image is known (see Patent Document 1). Although the imaging device may move during imaging, it has not been considered for moving and shooting.
  • a display device includes moving image data generated by an imaging device, an acquisition unit that acquires speed information of the imaging device while the moving image data is being generated, A display control unit that controls a region to be processed for a moving image to be displayed on a display unit using the moving image data based on the speed information acquired by the acquiring unit.
  • a program is a first program that causes a computer to acquire moving image data generated by an imaging device and speed information of the imaging device while the moving image data is being generated.
  • a procedure and a second procedure for controlling a region to be processed for a moving image to be displayed on a display unit using the moving image data based on the speed information acquired in the first procedure are executed.
  • a display device includes an acquisition unit that acquires moving image data generated by an imaging device and information about movement while the imaging device is imaging, and the acquisition And a control unit that controls display of the moving image data based on information about movement acquired by the unit.
  • FIG. 3 is an example of an image in a certain frame of a moving image captured by a camera attached to the skier's head as shown in FIG. 2. It is a figure which shows the relationship between the image of each flame
  • FIG. 1 is a block diagram illustrating a configuration of the image display apparatus according to the first embodiment.
  • the image display apparatus according to the present embodiment includes a personal computer having a monitor for displaying an image.
  • this image display device it is possible to display a moving image or a still image obtained by imaging with an external imaging device. Details will be described below.
  • FIG. 1 is a block diagram for explaining a main configuration of the image display apparatus 100 according to the first embodiment.
  • the image display apparatus 100 includes a control circuit 101, a storage device 102 such as an HDD or an SSD, a monitor 104, a memory 105, an input member 106, a memory card interface 107, and an external interface 108.
  • the input member 106 is an operation member such as a keyboard having a switch or button operated by a user, a mouse, or the like.
  • the input member 106 is operated by the user when selecting a menu or setting desired by the user from the menu screen displayed on the monitor 104 and executing the selected menu or setting.
  • the storage device 102 for example, a moving image photographed by an external imaging device or an image file corresponding to a still image is recorded.
  • the external interface 108 performs data communication with an external device such as an imaging device via, for example, a USB interface cable or a wireless transmission path.
  • the image display apparatus 100 inputs an image file or the like from the memory card 107 a or an external device via the memory card interface 107 or the external interface 108.
  • the input image file is controlled by the control circuit 101 and recorded in the storage device 102.
  • an image file generated by an external imaging device is controlled by the control circuit 101 and recorded in the storage device 102.
  • various programs executed by the control circuit 101 are recorded.
  • the image file of the moving image generated by the external image capturing device includes speed information of the image capturing device when the image is captured for each frame of the moving image, as will be described later. Yes.
  • speed information will be described as moving speed information.
  • the speed information does not need to be provided for each frame, and may be provided at a predetermined frame interval (every 3 frames), or at a predetermined time interval (for example, every 3 seconds). ).
  • information on the moving speed of the imaging device when each frame of a moving image is captured is also referred to as moving speed data.
  • the control circuit 101 is a microcomputer that controls the image display apparatus 100, and includes a CPU, a ROM, and other peripheral circuits.
  • the control circuit 101 includes an image data input unit 101a, a display range setting unit 101b, and a display image generation unit 101c as functions.
  • the image data input unit 101 a reads image file data recorded in the storage device 102.
  • the display range setting unit 101b sets a range to be displayed on the monitor 104 for each frame of the moving image.
  • the display image generation unit 101c generates an image signal for display so that the range set by the display range setting unit 101b is displayed on the monitor 104 for each frame of the moving image.
  • the setting of the display range in the display range setting unit 101b and the generation of the display image signal in the display image generation unit 101c will be described in detail later.
  • the memory 105 is a working memory of the control circuit 101, and is composed of, for example, an SDRAM.
  • the monitor 104 is a liquid crystal monitor, for example.
  • a camera called by name such as an action camera, an action cam, or a wearable camera
  • this camera can be attached to a moving person or object and photographed to generate a moving image.
  • This camera incorporates, for example, an acceleration sensor, calculates the moving speed of the camera based on the detection output of the acceleration sensor, and records the moving speed of the camera when each frame of the moving image is captured in association with the frame.
  • the moving speed calculation unit 34b may calculate the moving speed of the camera 1 based on a signal from the global positioning system (GPS).
  • GPS global positioning system
  • FIG. 2 is a diagram schematically illustrating a state in which a skier (competitor) sliding down the slope is taken as an example of a moving person, and the camera 1 is attached to the head of the skier.
  • the camera 1 is attached to the skier's head, but may be attached to the chest or arm of the skier, or may be attached to the ski.
  • FIG. 3 is an example of an image in a certain frame of a moving image captured by the camera 1 attached to the skier's head as shown in FIG. 2, and shows the state of the slope.
  • this image 50 there are a plurality of trees 52 on both sides of a slope 51 where snow is piled up.
  • a mountain 53 appears on the other side of the slope 51, and a sky 54 appears on the mountain 53.
  • the photographing optical system is often photographed with a short focal length, that is, a wide angle of view.
  • the sense of speed may be reduced if the angle of view is wide.
  • FIG. 2 when the camera 1 moves with a person, the moving image obtained by capturing with the camera 1 records the movement of the surrounding landscape such as the tree 52 in FIG. 3. , There is a risk that the feeling of speed will fade during playback. Therefore, when a moving image generated by shooting is reproduced, the feeling of speed may be less than the feeling of speed that the skier actually feels at the time of shooting.
  • the human visual field tends to become narrower as the moving speed of the human increases.
  • the range shown in the image 50 is imaged, but when the skier's downhill speed increases, for example, the skier's field of view narrows to the range shown by the frame 81.
  • the image display device 100 in order to make the moving image viewer feel a sense of speed, the range of moving images displayed on the monitor 104 in a scene where the moving speed of the camera 1 increases.
  • the image display apparatus 100 in a scene where the moving speed of the camera 1 increases, only a part of the image obtained by imaging is cut out, and the cut-out image is enlarged and displayed on the monitor 104. Display. In this way, the viewer feels the sense of speed that the skier is actually experiencing at the time of shooting.
  • the image display apparatus 100 causes the monitor 104 to display the entire range of the image obtained by imaging in a scene where the moving speed of the camera 1 is slow.
  • the control circuit 101 changes the range of the image to be displayed on the monitor 104 based on the moving speed of the camera 1 and displays the range on the monitor 104 as follows.
  • the image data input unit 101a of the control circuit 101 includes information on the image data of each frame of the moving image from the image file of the moving image recorded in the storage device 102, and information on the moving speed V of the camera 1 when each frame is captured.
  • the moving speed data is read.
  • the display range setting unit 101b of the control circuit 101 performs a crop process for cutting out a part of an image of a frame for which the moving speed V of the camera 1 is equal to or higher than the first predetermined value V1. In the following description, an area cut out by the crop processing is called a crop area.
  • the display range setting unit 101b sets the range surrounded by the frame 81 for the image 50 in FIG.
  • the display range setting unit 101b has a frame in which the moving speed V of the camera 1 is equal to or higher than the first predetermined value V1 and less than the second predetermined value V2 that is larger than the first predetermined value V1. Sets a first crop region for the image of the frame.
  • the display range setting unit 101b for a frame in which the moving speed V of the camera 1 is equal to or higher than the second predetermined value V2, sets a second crop area that is narrower than the first crop area for the image of that frame. Set. Note that the display range setting unit 101b does not perform crop processing for a frame in which the moving speed V of the camera 1 is less than the first predetermined value V1 or a frame in which no moving speed data exists.
  • the size of the first crop area or the second crop area may be a preset size, and the focal length, exposure time, ISO sensitivity, aperture value, and the like recorded in the image file are recorded. It may be a variable value that changes based on imaging conditions such as a frame rate. Note that changing the size of the crop area in two steps as described above according to the moving speed V of the camera 1 is an example, and may be one step or three or more steps. In addition, as described above, the size of the crop area is not changed stepwise according to the moving speed V, but the size of the crop area is changed continuously according to the moving speed V of the camera 1. Also good. Specifically, the size of the crop area may be reduced as the moving speed of the camera 1 increases. For example, the size of the crop area may be continuously reduced as the moving speed of the camera 1 increases from the crop area set in the initial setting.
  • the center position of the crop area may be the center position of the image of the frame, or may be a position obtained based on the moving direction of the camera 1 estimated from the moving direction of the subject in the moving image. Further, among the subjects in the moving image, a subject that is present in approximately the same direction as the moving direction of the camera 1 estimated as described above is detected, and the subject that the photographer seems to be looking at the detected subject The center position of the subject may be set as the center position of the crop area.
  • the user may be able to set the center position of the crop area.
  • the user when the user notices that the orientation of the camera 1 at the time of image capture is different from the moving direction of the camera 1 during playback of the moving image, the user operates the input member 106 to set the center position of the crop region. It is desirable to be able to set. For convenience of enlargement processing described later, it is desirable that the crop area has a rectangular shape having the same aspect ratio as that of an image obtained by imaging.
  • the display image generation unit 101c of the control circuit 101 performs an enlargement process for enlarging the image of the crop area cut out by the crop process to the size of the original image before the crop process. Then, the image after the enlargement process is set as an image for displaying the frame. Accordingly, the enlarged image is displayed on the monitor 104 when the frame is reproduced.
  • the display image generation unit 101c does not perform the above-described enlargement processing unless the above-described crop processing is performed, and sets the image read by the image data input unit 101a as a display image for the frame. Therefore, when the frame is reproduced, the image recorded in the storage device 102 is displayed as it is on the monitor 104.
  • FIG. 4 is a diagram illustrating a relationship between an image of each frame of a moving image recorded in the storage device 102 and an image displayed on the monitor 104.
  • the display image generation unit 101c displays the images 501 of the frames F1 and F2 recorded in the storage device 102.
  • 502 are not subjected to the above-described crop processing and enlargement processing.
  • the display image generation unit 101c uses the images 501 and 502 of the frames F1 and F2 recorded in the storage device 102 as display images for the frames F1 and F2. Accordingly, the images 501 and 502 are displayed on the monitor 104.
  • the display image generation unit 101c performs the above-described cropping process on the image 503 of the frame F3 recorded in the storage device 102. That is, the display image generation unit 101c sets the crop area 803 for the image 503 of the frame F3 recorded in the storage device 102, and cuts the set crop area 803. Note that the display image generation unit 101c applies to the image 503 if the moving speed V of the camera 1 at the time of capturing the frame F3 is equal to or higher than the first predetermined value V1 and lower than the second predetermined value V2. A first crop area is set.
  • the display image generation unit 101c sets the second crop area for the image 503 if the moving speed V of the camera 1 at the time of capturing the frame F3 is equal to or higher than the second predetermined value V2. Then, the display image generation unit 101c enlarges the image of the crop region 803 cut out by the crop processing to the size of the image 503 before the crop processing, and sets the image 703 after the enlargement as an image for display of the frame F3. Accordingly, the enlarged image 703 is displayed on the monitor 104.
  • the display image generating unit 101b and the display image generating unit 101c display the image 504 of the frame F4. Also for the crop processing and enlargement processing described above. That is, the display image generation unit 101b sets a crop area 804 for the image 504, and cuts the set crop area 804. Then, the display image generation unit 101c enlarges the image of the crop area 834 to the size of the original image 504 before the crop processing, and sets the enlarged image 704 as an image for display of the frame F4. Therefore, the enlarged image 704 is displayed on the monitor 104.
  • FIG. 5 is a flowchart showing processing performed in the image display device 100 according to the first embodiment. For example, when the user operates the input member 106 to instruct the reproduction of a moving image file recorded in the storage device 102, the processing shown in FIG. 5 is executed by the control circuit 101.
  • step S11 the control circuit 101 reads information on a frame (undisplayed frame) that has not been displayed yet, that is, image data and movement speed data recorded in the storage device 102, and proceeds to step S13.
  • step S13 the control circuit 101 determines whether or not the moving speed data is included in the information of the undisplayed frame read in step S11.
  • step S13 If the moving speed data is included in the information of the undisplayed frame read in step S11, the determination in step S13 is affirmative and the process proceeds to step S15, and the display range setting unit 101b of the control circuit 101 reads the camera 1 read in step S11. It is determined whether the moving speed V is less than a first predetermined value V1. If the moving speed V of the camera 1 read in step S11 is equal to or higher than the first predetermined value V1, a negative determination is made in step S15 and the process proceeds to step S17, and the display range setting unit 101b of the control circuit 101 reads in step S11. It is determined whether or not the moving speed V of the camera 1 is equal to or higher than a second predetermined value V2.
  • step S11 If the moving speed V of the camera 1 read in step S11 is less than the second predetermined value V2, a negative determination is made in step S17 and the process proceeds to step S21.
  • the display range setting unit 101b of the control circuit 101 displays an image of an undisplayed frame.
  • the crop processing for cutting out the first crop area is performed, and the process proceeds to step S25.
  • step S23 If the moving speed V of the camera 1 read in step S11 is equal to or higher than the second predetermined value V2, an affirmative determination is made in step S17 and the process proceeds to step S23, where the display range setting unit 101b of the control circuit 101 displays an image of an undisplayed frame.
  • a crop process for cutting out a second crop area smaller than the first crop area is performed, and the process proceeds to step S25.
  • step S25 the display image generation unit 101c of the control circuit 101 performs the above-described enlargement process on the image of the crop area cut out in the crop process in step S21 or step S23, and then proceeds to step S27.
  • step S27 the control circuit 101 displays the image after the enlargement process in step S25 on the monitor 104, and proceeds to step S31.
  • step S31 the control circuit 101 determines whether or not the reproduction has been completed, that is, whether or not all the images of the frames included in the image file of the moving image instructed to be reproduced have been displayed. If a positive determination is made in step S31, the control circuit 101 ends this program. When a negative determination is made in step S31, the process proceeds to step S33, and the control circuit 101 determines, for example, whether or not the user has operated the input member 106 to instruct the stop of reproduction of the moving image file. If a negative determination is made in step S33, the process returns to step S11. If the determination in step S33 is affirmative, the control circuit 101 ends this program.
  • step S11 If the moving speed data is not included in the information of the undisplayed frame read in step S11, a negative determination is made in step S13 and the process proceeds to step S27, and the control circuit 101 monitors the image of the undisplayed frame read in step S11. And the process proceeds to step S31.
  • the control circuit 101 determines the undisplayed frame read in step S11. The image is displayed on the monitor 104, and the process proceeds to step S31.
  • the image display apparatus 100 acquires the moving image captured by the camera 1 and the image data input unit 101a for acquiring the moving speed data related to the moving speed V of the camera at the time of image capturing, and the image data input unit 101a.
  • a display range setting unit 101b that determines a moving image display area based on the moving speed V, and a monitor 104 that displays a moving image in the display area determined by the display range setting unit 101b.
  • the viewer feels as the field of view narrows as the moving speed V of the camera 1 increases. Thereby, it can suppress that a feeling of speed fades and can give a viewer a moving image a sense of reality.
  • the display range setting unit 101b narrows the display area when the moving speed V increases. Thereby, in a scene where the moving speed V of the camera 1 is increased, a part of the image displayed on the monitor 104 is enlarged and displayed. Therefore, when the moving image displayed on the monitor 104 is browsed, the viewer As the moving speed V of the camera 1 increases, the field of view feels narrowed. Thereby, it can suppress that a feeling of speed fades and can give a viewer a moving image a sense of reality.
  • the human visual field tends to become narrower as the moving speed of the human increases. Therefore, in the image display apparatus 100 according to the second embodiment, in a scene where the moving speed of the camera 1 is increased, the moving image viewer is made to feel that the range of the moving image is narrowed to feel a sense of speed. Therefore, the sharpness of the peripheral portion of the moving image displayed on the monitor 104 is reduced.
  • FIG. 6 is a block diagram illustrating a configuration of the camera 1 according to the second embodiment.
  • the control circuit 101A includes an image data input unit 101a, a display image generation unit 101c, and a processing target area setting unit 101d as functions.
  • the processing target area setting unit 101d performs an area setting process for setting an area for reducing the sharpness of the peripheral portion of the image of the frame for a frame in which the moving speed V of the camera 1 is equal to or higher than the first predetermined value V1.
  • the display image generation unit 101c performs a sharpness reduction process for reducing the sharpness of the area set by the target area setting process.
  • the area setting process and the sharpness reduction process will be described.
  • the sharpness reduction process is a process for performing at least one of the following processes (a) to (e) on the peripheral area of the image.
  • A Blur the image. For example, the outline of the image is blurred.
  • B Decrease the contrast.
  • C Reduce saturation.
  • D Decrease the brightness.
  • E Add blur.
  • add blur described in (e) is to give the same image blur as when the exposure time is extended. Giving image blur in this way is referred to as adding blur, giving blur, and the like in the following description.
  • image blur is suppressed more than necessary, and it is difficult to feel the smoothness of the moving image during reproduction, which may reduce the sense of speed.
  • by adding blur the moving image is smoothly reproduced with moderate image blur, so that the viewer who has viewed the reproduced moving image can feel a sense of speed and a sense of reality. You can taste it.
  • FIG. 7 is a diagram for explaining the processing target area and the non-target area.
  • the processing target area setting unit 101d sets a hatched area outside the frame 82 as the processing target area 83 for the image 50 of a certain frame by the area setting process.
  • a region inside the frame 82 is a non-target region 84. It should be noted that the frame 82 and hatched lines in FIG. 7 are described for convenience of explanation, and do not appear when the image 50 is reproduced.
  • the center position of the non-target region 84 may be the center position of the image of the frame, or may be a position obtained based on the moving direction of the camera 1 estimated from the moving direction of the subject in the moving image. Further, among the subjects in the moving image, a subject that is present in approximately the same direction as the moving direction of the camera 1 estimated as described above is detected, and the subject that the photographer seems to be looking at the detected subject The center position of the subject may be set as the center position of the non-target region 84.
  • the center position of the non-target region 84 may be set by the user. For example, when the user notices that the orientation of the camera 1 at the time of imaging and the moving direction of the camera 1 are deviated at the time of reproduction of the moving image, the user operates the input member 106 so that the center of the non-target region 84 is It is desirable to be able to set the position.
  • the shape of the non-target region 84 may be an ellipse as shown in FIG. 7, a circle, a rectangle, or a closed shape composed of straight lines and curves. May be.
  • the processing target area setting unit 101d performs the first operation on the image of the frame for the frame in which the moving speed V of the camera 1 is equal to or higher than the first predetermined value V1 and less than the second predetermined value V2. Set the processing target area. Further, the processing target area setting unit 101d performs, for a frame in which the moving speed V of the camera 1 is equal to or higher than the second predetermined value V2, a second process wider than the first processing target area for the image of the frame. Set the target area. That is, the processing target area setting unit 101d sets the processing target area 83 so that the processing target area 83 becomes wider as the moving speed V of the camera 1 increases, in other words, the non-target area 84 becomes narrower.
  • the size of the first processing target area and the second processing target area may be set in advance, and the focal length, exposure time, ISO sensitivity, and aperture at the time of imaging recorded in the image file may be used. It may be a variable value that changes based on an imaging condition such as a value or a frame rate. Note that changing the size of the region to be processed in two steps as described above according to the moving speed V of the camera 1 is an example, and may be one step or three or more steps. . In addition, as described above, the size of the processing target area is not changed stepwise according to the moving speed V, but the size of the processing target area is changed continuously according to the moving speed V of the camera 1. It may be. Specifically, the size of the processing target area may be increased as the moving speed V of the camera 1 increases. For example, the size of the processing target region may be continuously increased as the moving speed V of the camera 1 increases from the processing target region set in the initial setting.
  • the display image generation unit 101c performs the above-described sharpness reduction process on the set processing target region, and generates an image signal for display. Therefore, at the time of reproducing the frame, an image with a reduced sharpness in the peripheral portion is displayed on the monitor 104.
  • the display image generation unit 101c may perform the sharpness reduction process so that the entire processing target area becomes as unclear as possible, and the display image generation unit 101c performs the sharpness reduction process so as to become sharper as the distance from the non-target area increases. You may go. Specifically, the display image generation unit 101c increases the degree of blurring of the image or the degree of blur to be added as the distance from the non-target region increases. Further, for example, the display image generation unit 34b may reduce at least one of contrast, saturation, and brightness as the distance from the non-target region increases. Any one of these blurring, contrast reduction, saturation reduction, lightness reduction, and blur addition may be performed, or two or more image processes may be combined. Further, the display image generation unit 101c may perform the sharpness reduction process so that the processing target region becomes unclear as the moving speed V of the camera 1 increases.
  • the processing target area setting unit 101d sets an area for an image of a frame in which the moving speed V of the camera 1 is less than the first predetermined value V1 or a frame in which no information on the moving speed V exists. Do not process. If the above-described region setting process has not been performed, the display image generation unit 101c does not perform the above-described sharpness reduction process, and uses the image read by the image data input unit 101a as a display image for the frame. Therefore, when the frame is reproduced, the image recorded in the storage device 102 is displayed as it is on the monitor 104.
  • FIG. 8 is a flowchart showing processing performed in the image display device 100 according to the second embodiment.
  • the processing shown in FIG. 8 is executed by the control circuit 101A. Steps S11 to S15 are the same as those in the first embodiment shown in FIG.
  • step S17 the processing target area setting unit 101d of the control circuit 101A determines whether or not the moving speed V of the camera 1 read in step S11 is equal to or higher than a second predetermined value V2. If the moving speed V of the camera 1 read in step S11 is less than the second predetermined value V2, a negative determination is made in step S17 and the process proceeds to step S41, and the processing target area setting unit 101d of the control circuit 101A is as described above. The first process target area is set and the process proceeds to step S45.
  • step S11 If the moving speed V of the camera 1 read in step S11 is equal to or higher than the second predetermined value V2, an affirmative determination is made in step S17 and the process proceeds to step S43, and the processing target area setting unit 101d of the control circuit 101A is as described above.
  • a second process target area wider than the first process target area is set, and the process proceeds to step S45.
  • step S45 the display image generation unit 101c of the control circuit 101A performs the sharpness reduction process described above on the set processing target area, and the process proceeds to step S27.
  • step S27 the control circuit 101 displays the image after the sharpness reduction process in step S45 on the monitor 104, and proceeds to step S31.
  • the processing after step S31 is the same as that of the first embodiment shown in FIG.
  • the image display apparatus 100 acquires a moving image captured by the camera 1 and an image data input unit 101a that acquires moving speed data related to the moving speed V of the camera 1 at the time of imaging, and the image data input unit 101a.
  • the processing target region setting unit 101d and the display image generating unit 101c that perform processing for blurring the image of the peripheral region of the moving image based on the moving speed V are processed by the processing target region setting unit 101d and the display image generating unit 101c.
  • a monitor 104 for displaying the moving image.
  • the sharpness of the peripheral area of the image displayed on the monitor 104 can be reduced. Therefore, when the moving image displayed on the monitor 104 is viewed, the viewer Feels as the field of view narrows as the moving speed V of the camera 1 increases. Thereby, it can suppress that a feeling of speed fades and can give a viewer a moving image a sense of reality.
  • the processing target area setting unit 101d widens an area in which an image is unclear when the moving speed V increases. Thereby, in the scene where the moving speed V of the camera 1 becomes faster, the range in which the sharpness in the image displayed on the monitor 104 is reduced is widened. When the moving image displayed on the monitor 104 is browsed, the viewer is more I feel like my field of view has narrowed. Thereby, it can suppress that a feeling of speed fades and can give a viewer a moving image still more realistic.
  • the display image generation unit 101c makes the image more unclear when the moving speed V increases. Thereby, in the scene where the moving speed V of the camera 1 becomes faster, the sharpness of the peripheral portion in the image displayed on the monitor 104 is further lowered. Therefore, when the moving image displayed on the monitor 104 is viewed, the viewer is I feel like my field of view has narrowed. Thereby, it can suppress that a feeling of speed fades and can give a viewer a moving image still more realistic.
  • the display image generation unit 101c makes the image unclear as the distance from the central region of the moving image increases. Thereby, when the moving image displayed on the monitor 104 is browsed, the viewer feels that the field of view is narrowed. Thereby, it can suppress that a feeling of speed fades and can give a viewer a moving image still more realistic.
  • a moving image obtained by capturing an image without changing the angle of view is enlarged and displayed in a scene where the moving speed of the camera 1 increases during reproduction. That is, in the first embodiment, the angle of view is changed during reproduction.
  • the angle of view is changed during imaging. That is, in the camera 1 of the third embodiment, when the moving speed V of the camera 1 increases, only a part of the image obtained by imaging is cut out, and the cut out image is enlarged and recorded.
  • FIG. 9 is a block diagram illustrating a configuration of the camera 1 according to the third embodiment.
  • the camera 1 includes an imaging optical system 31, an imaging unit 33, a control unit 34, an acceleration sensor 35, a display unit 36, an operation member 37, and a recording unit 38.
  • the imaging optical system 31 guides the light flux from the object scene to the imaging unit 33.
  • the imaging optical system 31 is provided with a diaphragm 32 in addition to a lens (not shown).
  • the imaging unit 33 includes an imaging element 33a and a driving unit 33b, and photoelectrically converts an object image formed by the imaging optical system 31 to generate charges.
  • the drive unit 33b generates a drive signal necessary for causing the image sensor 33a to perform exposure control, that is, charge accumulation control.
  • An imaging instruction such as an exposure time for the imaging unit 33 is transmitted from the control unit 34 to the driving unit 33b.
  • the control unit 34 is constituted by a CPU, for example, and controls the overall operation of the camera 1. For example, the control unit 34 performs a predetermined exposure calculation based on the photoelectric conversion signal acquired by the imaging unit 33, the charge accumulation time (exposure time) of the image sensor 33 a necessary for proper exposure, ISO sensitivity, and the aperture 32. An exposure condition such as an aperture value is determined and an instruction is given to the drive unit 33b and the aperture 32.
  • the control unit 34 includes an exposure calculation unit 34a, a moving speed calculation unit 34b, and an image processing unit 34c. These are realized as software by the control unit 34 executing a program stored in a nonvolatile memory (not shown). However, these may be configured by an ASIC or the like.
  • the exposure calculator 34a detects the brightness of the subject based on the image signal from the image sensor 33a, and determines the exposure time, ISO sensitivity, and aperture value necessary for proper exposure.
  • the moving speed calculation unit 34 b calculates the moving speed of the camera 1 based on the acceleration information of the camera 1.
  • the image processing unit 34 c performs image processing on the image data acquired by the imaging unit 33.
  • Image processing includes, for example, color interpolation processing, pixel defect correction processing, edge enhancement processing, noise reduction processing, white balance adjustment processing, gamma correction processing, display luminance adjustment processing, saturation adjustment processing, and the like.
  • the image processing unit 34 c generates an image to be displayed by the display unit 36.
  • the image processing unit 34c can further perform an image capturing crop process and an image capturing enlargement process, which will be described in detail later.
  • the acceleration sensor 35 detects the acceleration of the camera 1 and outputs the detection result to the movement speed calculation unit 34b of the control unit 34.
  • the movement speed calculation unit 34b is based on the acceleration detected by the acceleration sensor 35. Is calculated.
  • the display unit 36 reproduces and displays the image generated by the image processing unit 34c, the image processed image, the image read by the recording unit 38, and the like.
  • the display unit 36 also displays an operation menu screen, a setting screen for setting imaging conditions, and the like.
  • the operation member 37 is composed of various operation members such as a release button and a menu button.
  • the operation member 37 sends an operation signal corresponding to each operation to the control unit 34.
  • the operation member 37 includes a touch operation member provided on the display surface of the display unit 36.
  • the recording unit 38 records image data or the like on a recording medium including a memory card (not shown).
  • the recording unit 38 reads image data recorded on the recording medium in response to an instruction from the control unit 34.
  • the camera 1 configured as described above can capture a still image or a moving image and record image data obtained by the imaging on a recording medium.
  • the camera 1 is suitable for capturing a moving image by attaching it to a moving person or object as shown in FIG.
  • the imaging crop process is a process of cutting out a part of an image obtained by imaging.
  • an area cut out by the image capturing crop process is referred to as an image capturing crop area.
  • the image processing unit 34c sets a range surrounded by a frame 81 for the image 50 as a cropping crop area.
  • the center position of the cropping crop area may be the center position of an image obtained by imaging or may be a position obtained based on the moving direction of the camera 1.
  • it is desirable that the imaging crop area has a rectangular shape having the same aspect ratio as the image obtained by imaging.
  • the image processing unit 34c performs first imaging on an image obtained by imaging. Set the hour crop area. Further, when the moving speed V of the camera 1 is equal to or higher than the second predetermined value V2, the image processing unit 34c sets a second imaging crop area that is narrower than the first imaging crop area.
  • the imaging enlargement process is a process of enlarging the image of the imaging crop area cut out by the above-described imaging cropping process to the size of the original image before the imaging cropping process.
  • the image processing unit 34c handles the image data of the image obtained by the above-described cropping process at the time of capture and the enlargement process at the time of capture as image data for recording instead of the image data of the image obtained by capturing. If the moving speed V of the camera 1 calculated by the moving speed calculating unit 34b is less than the first predetermined value V1, the image processing unit 34c performs the above-described cropping process at the time of shooting and the above-described zooming process at the time of shooting. First, image data of an image obtained by imaging is handled as image data for recording. Note that an image captured and cropped may be recorded without performing enlargement processing of a moving image generated by cropping at the time of recording.
  • FIG. 10 is a diagram illustrating a relationship between an image obtained by imaging in each frame and an image obtained in the present embodiment. It is assumed that the moving speed V of the camera 1 is less than the first predetermined value V1 at times t31 and t32. In this case, the image processing unit 34c performs the above-described cropping process at the time of imaging and the enlargement process at the time of imaging on the images 531 and 532 obtained by imaging in the respective frames F31 and F32 where exposure is started from the times t31 and t32. Not performed. The image processing unit 34c handles the image data of the images 531 and 532 obtained by imaging in the frames F31 and F32 as recording image data.
  • the image processing unit 34c performs the above-described cropping process at the time of capturing and the above-described enlargement process at the time of capturing the image 533 obtained by capturing in the frame F33 at which exposure starts from time t33. That is, the image processing unit 34c sets the imaging crop area 833 for the image 533 obtained by imaging in the frame F33 at which exposure starts from time t33, and cuts out the set imaging crop area 833.
  • the image processing unit 34 c sets the center position of the imaging crop area 833 to a position obtained based on the moving direction of the camera 1. If the moving speed V of the camera 1 is equal to or higher than the first predetermined value V1 and less than the second predetermined value V2, the image processing unit 34c performs the first imaging crop area for the image 533. Set. The image processing unit 34c sets a second cropping crop area for the image 533 if the moving speed V of the camera 1 is equal to or higher than the second predetermined value V2.
  • the image processing unit 34c performs a process of enlarging the image in the imaging crop area 833 to the size of the original image 533 before the imaging crop process, and obtains image data of the image 733.
  • the image processing unit 34c handles the image data of the image 733 as recording image data in the frame F33.
  • the image processing unit 34c causes the frame F34 to start exposure from the time t34.
  • the above-described cropping process at the time of image capture and enlargement process at the time of image capture are also performed on the image 534 obtained by capturing the image in step S2.
  • the image processing unit 34c sets an imaging time crop area 834 for the image 534, and cuts the set imaging time crop area 834.
  • the image processing unit 34c performs a process of enlarging the image in the imaging crop area 834 to the size of the original image 534 before the imaging crop process, and obtains image data of the image 734.
  • the image processing unit 34c handles the image data of the image 734 as image data for recording in the frame F34.
  • the moving speed V of the camera 1 when the moving speed V of the camera 1 is increased, the range of the recorded image is narrowed. Therefore, when the moving image captured by the camera 1 according to the present embodiment is browsed, the viewer moves the moving speed of the camera 1. As V gets faster, it feels like the field of view has narrowed. Thereby, it can suppress that a feeling of speed fades and can give a viewer a moving image a sense of reality.
  • FIG. 11 is a flowchart illustrating processing related to imaging of the camera 1 according to the third embodiment.
  • the control unit 34 performs initial setting such as reading a frame rate value set in advance by the user, and proceeds to step S113.
  • the control unit 34 waits until the start of moving image capturing is instructed by operating the release button or the like. When the start of image capturing is instructed, moving image capturing is started under the initially set image capturing conditions. Then, the process proceeds to step S115.
  • step S115 the exposure calculation unit 34a of the control unit 34 detects the brightness of the subject based on the image signal from the image sensor 33a, determines the exposure time, ISO sensitivity, and aperture value for providing appropriate exposure, and step S117. Proceed to In step S117, the movement speed calculation unit 34b of the control unit 34 calculates the movement speed of the camera 1 based on the acceleration information of the camera 1 detected by the acceleration sensor 35, and the process proceeds to step S118.
  • step S118 the control unit 34 controls the imaging unit 33 and the aperture 32 so as to capture an image with the exposure time, ISO sensitivity, and aperture value calculated in step S115, and the process proceeds to step S119.
  • step S119 the imaging control unit 34c of the control unit 34 determines whether or not the moving speed V of the camera 1 calculated in step S117 is less than a first predetermined value V1. If a positive determination is made in step S119, the process proceeds to step S135. The processing after step S135 will be described later.
  • step S117 If the moving speed V of the camera 1 calculated in step S117 is equal to or higher than the first predetermined value V1, a negative determination is made in step S119, and the process proceeds to step S123.
  • step S123 the imaging control unit 34c of the control unit 34 determines whether or not the moving speed V of the camera 1 calculated in step S117 is equal to or higher than a second predetermined value V2. If the moving speed V of the camera 1 calculated in step S117 is less than the second predetermined value V2, a negative determination is made in step S123, the process proceeds to step S171, and the image processing unit 34c of the control unit 34 performs the first operation as described above.
  • the imaging cropping process for cutting out one cropping cropping area is performed, and the process proceeds to step S175.
  • step S117 If the moving speed V of the camera 1 calculated in step S117 is equal to or higher than the second predetermined value V2, an affirmative determination is made in step S123, the process proceeds to step S173, and the image processing unit 34c of the control unit 34 performs the first operation as described above.
  • the imaging cropping process for cutting out the imaging cropping area 2 is performed, and the process advances to step S175.
  • step S175 the image processing unit 34c of the control unit 34 performs the above-described image capturing enlargement process on the image in the image capturing crop area cut out in the image capturing crop process in step S171 or step S173, and then proceeds to step S135. .
  • step S135 the control unit 34 determines whether or not an instruction to end the imaging of the moving image is given. If a negative determination is made in step S35, the process returns to step S115, and if a positive determination is made in step S135, the process proceeds to step S137.
  • step S137 the control unit 34 determines whether a power switch (not shown) is turned off. If a negative determination is made in step S137, the process returns to step S113, and if a positive determination is made in step S137, the program ends.
  • the camera 1 further includes an image processing unit 34c that performs image processing on a signal generated by the image sensor 33a.
  • the image processing unit 34c cuts out only a part of the image obtained by imaging when the moving speed V detected by the acceleration sensor 35 and the moving speed calculating unit 34b is increased, and enlarges the cut-out image.
  • the recording unit 38 records the image enlarged by the image processing unit 34c.
  • the human visual field tends to become narrower as the moving speed of the human increases. Therefore, in the camera 1 according to the fourth embodiment, when the moving speed V of the camera 1 is increased, the moving speed V of the camera 1 is increased in order to make the moving image viewer feel that the range of the moving image is narrowed. In this case, recording is performed by reducing the sharpness of the peripheral portion of the image obtained by imaging.
  • the configuration of the camera 1 of the fourth embodiment is the same as that of the camera 1 of the third embodiment shown in FIG.
  • the image processing unit 34c of the control unit 34 instead of the cropping process at the time of imaging and the enlargement process at the time of imaging, reduces the sharpness at the time of imaging that reduces the clarity of the peripheral part of the image A reduction process can be performed.
  • the sharpness reduction process during imaging will be described.
  • the sharpness reduction process at the time of imaging is a process of performing at least one of the following processes (a) to (d) on a peripheral area of an image obtained by imaging. It is.
  • a region where the sharpness reduction process at the time of imaging is performed is referred to as a processing target region at the time of imaging, and a region where the sharpness reduction process at the time of imaging is not performed is referred to as a non-target region at the time of imaging.
  • the imaging target region corresponds to the processing target region 83 in the second embodiment (see FIG. 7), and the imaging non-target region corresponds to the non-target region 84 in the second embodiment.
  • the image processing unit 34c sets an imaging processing target area for an image obtained by imaging.
  • the center position of the non-target region during imaging may be the center position of an image obtained by imaging, or may be a position obtained based on the moving direction of the camera 1.
  • the shape of the non-target region at the time of imaging may be elliptical, circular, rectangular, straight, or curved like the non-target region 84 of the second embodiment.
  • the closed shape comprised by may be sufficient.
  • the image processing unit 34c performs first imaging on an image obtained by imaging. Set the time processing target area. Further, when the moving speed V of the camera 1 is equal to or higher than the second predetermined value V2, the image processing unit 34c sets a second imaging time processing target area that is wider than the first imaging time processing target area. That is, the image processing unit 34c sets the imaging processing target area so that the imaging processing target area becomes wider as the moving speed V of the camera 1 increases, in other words, the imaging non-target area becomes narrower. Then, the image processing unit 34c performs the above-described imaging sharpness reduction process on the set imaging processing target area.
  • the image processing unit 34c may perform the sharpness reduction process at the time of imaging so that the entire processing target area at the time of imaging becomes as unclear as possible, and the image processing unit 34c becomes more blurred as the distance from the non-target area at the time of imaging increases. You may perform a sharpness fall process at the time of imaging.
  • the image processing unit 34b increases the degree of blurring of the image as the distance from the non-target region increases. Further, for example, the image processing unit 34b may reduce at least one of contrast, saturation, and brightness as the distance from the non-target region increases. Any one of these blurring, contrast reduction, saturation reduction, and brightness reduction may be performed, or two or more image processes may be combined.
  • the image processing unit 34c handles the image data of the image subjected to the above-described image sharpness reduction process as recording image data, instead of the image data of the image obtained by imaging. If the moving speed V of the camera 1 calculated by the moving speed calculating unit 34b is less than the first predetermined value V1, the image processing unit 34c captures an image without performing the above-described imaging sharpness reduction process. Image data of the obtained image is handled as image data for recording.
  • the moving speed V of the camera 1 when the moving speed V of the camera 1 is increased, the sharpness of the peripheral portion of the recorded image is reduced. Therefore, when the moving image captured by the camera 1 according to the present embodiment is viewed, the viewer is As the moving speed V of 1 increases, the field of view feels narrower. Thereby, it can suppress that a feeling of speed fades and can give a viewer a moving image a sense of reality.
  • FIG. 12 is a flowchart illustrating processing related to imaging of the camera 1 according to the fourth embodiment.
  • a power switch not shown
  • FIG. Steps S111 to S123 are the same as those in the third embodiment shown in FIG.
  • step S123 the imaging control unit 34c of the control unit 34 determines whether or not the moving speed V of the camera 1 calculated in step S117 is equal to or higher than a second predetermined value V2. If the moving speed V of the camera 1 calculated in step S117 is less than the second predetermined value V2, a negative determination is made in step S123, the process proceeds to step S181, and the image processing unit 34c of the control unit 34 performs the first operation as described above. 1 is set as a processing target area at the time of imaging, and a sharpness reduction process at the time of imaging is performed, and the process proceeds to step S135.
  • step S117 If the moving speed V of the camera 1 calculated in step S117 is equal to or higher than the second predetermined value V2, an affirmative determination is made in step S123, the process proceeds to step S183, and the image processing unit 34c of the control unit 34 performs the first operation as described above. 2 is set as a processing target area at the time of imaging, and a sharpness reduction process at the time of imaging is performed, and the process proceeds to step S135.
  • the camera 1 includes an image processing unit 34c that performs image processing on a signal generated by the image sensor 33a.
  • the image processing unit 34c performs a sharpness reduction process at the time of imaging that reduces the sharpness of the peripheral portion of the image obtained by imaging when the moving speed V detected by the acceleration sensor 35 and the moving speed calculating unit 34b is increased. I do.
  • the recording unit 38 records an image that has undergone the sharpness reduction process during imaging.
  • imaging is performed under the same conditions over the entire imaging surface of the imaging device 33a, or imaging is performed under different conditions for each region of the imaging surface of the imaging device 33a. What can be used may be used. In this case, for example, different imaging conditions may be set for the area of the imaging surface corresponding to the processing target area at the time of imaging and the area of the imaging surface corresponding to the non-target area at the time of imaging.
  • the area of the imaging surface corresponding to the processing target area at the time of imaging is referred to as a first area
  • the area of the imaging surface corresponding to the non-target area at the time of imaging is referred to as a second area.
  • control unit 34 may set the sensitivity of the first region to be lower than the sensitivity of the second region.
  • the brightness of the image in the processing target area at the time of imaging is lower than that of the image in the non-target area at the time of imaging.
  • control unit 34 sets the exposure time of the first region to be longer than the exposure time of the second region, and sets the sensitivity of the first region so that the appropriate exposure is obtained even if the exposure time varies depending on the region. It may be set lower than the sensitivity.
  • the control unit 34 lowers the frame rate of the first region than the frame rate of the second region. Therefore, since the exposure time of the first region can be set longer than the exposure time of the second region, it is possible to further enhance the operational effect when the blur is added as in the second embodiment.
  • Modification 1 cropping processing, enlargement processing, and the like are automatically performed when the moving speed of the camera 1 increases.
  • the user can set whether the cropping process, the enlargement process, or the like is performed when the moving image is played back by selecting the playback mode.
  • any one of four playback modes that is, a normal mode, a first realistic mode, a second realistic mode, and a fast-forward mode can be set.
  • the user can set one of four playback modes by operating the input member 106, for example.
  • the control circuit 101 When the playback mode is set to the normal mode, the control circuit 101 does not perform crop processing, enlargement processing, region setting processing, or sharpness reduction processing during playback of moving images. Therefore, when the playback mode is set to the normal mode, the moving image of the image file recorded in the storage device 102 is played back as it is and displayed on the monitor 104.
  • the normal mode is a reproduction mode suitable for a case where the user wants to view a moving image with a wide angle.
  • the control circuit 101 When the playback mode is set to the first realistic mode, the control circuit 101 performs crop processing and enlargement processing during playback of a moving image, as in the first embodiment.
  • the first realistic mode is a playback mode suitable for a case where the user wants to feel the realism of the moving image more.
  • the second realism mode is a reproduction mode suitable for a case where the user desires to feel the realism of the moving image without narrowing the range of the image displayed on the monitor 104.
  • the control circuit 101 When the reproduction mode is set to the fast-forward mode, the control circuit 101 reproduces the moving image at a reproduction speed faster than the normal reproduction speed when the moving image is reproduced. It should be noted that if the playback speed is too fast, the sense of presence is reduced, so that the playback speed in the fast-forward mode is preferably set to about 1.1 to 1.3 times the normal playback speed.
  • the fast-forward mode is a playback mode suitable for a case where the user wants to feel a more realistic sensation of a moving image, like the first and second realistic sensation modes.
  • the image display device 100 is configured by a personal computer or the like.
  • a high-function mobile phone 250 (FIG. 13) having a camera function like a smartphone is used. It may be configured by a mobile device such as a tablet terminal.
  • the program of each embodiment described above is supplied to the mobile device such as the above-described high-function mobile phone 250 or tablet terminal, for example, as illustrated in FIG. 13, the image display device (personal computer) 100 storing the program. Can be transmitted to the mobile device by infrared communication or near field communication.
  • the program may be supplied to the personal computer 100 by setting a recording medium 204 such as a CD-ROM storing the program in the personal computer 100, or to the personal computer 100 by a method via the communication line 201 such as a network. You may load.
  • the program is stored in the storage device 203 of the server 202 connected to the communication line.
  • the program can be directly transmitted to the mobile device via a wireless LAN access point (not shown) connected to the communication line 201.
  • a recording medium 204B such as a memory card storing the program may be set in the mobile device.
  • the program can be supplied as various forms of computer program products, such as provision via a recording medium or a communication line.
  • Modification 3 and Modification 4 In the first and second embodiments described above, cropping processing, enlargement processing, and the like are performed during playback of a moving image. In the third modification, crop processing, enlargement processing, and the like are performed when editing an image file.
  • a moving image image file recorded in the storage device 102 is read, and a new image file is generated by performing cropping and enlargement processing as in the first embodiment. To do. That is, for example, the images 501 and 502 of the frame F1 and the frame F2 shown in FIG. 4 are recorded in a new image file without being changed, but in the frames F3 and F4, the original images 503 and 504 are replaced.
  • Images 703 and 704 after the cropping process and the enlargement process are recorded in a new image file.
  • a part of the image is enlarged in a scene where the moving speed V of the camera 1 is increased without performing cropping processing or enlargement processing at the time of moving image playback. Displayed on the monitor 104.
  • the image file of the moving image recorded in the storage device 102 is read, and the area setting process and the sharpness reduction process are performed as in the second embodiment. Create a new image file.
  • the sharpness of the peripheral portion is increased in a scene where the moving speed V of the camera 1 is increased without performing the region setting process or the sharpness reduction process at the time of reproducing the moving image.
  • An image with reduced is displayed on the monitor 104.
  • the image file includes information on the moving speed of the imaging device when each frame of the moving image is captured.
  • the moving speed of the imaging device may be obtained from a change in the position information as long as the position information of the imaging point is included.
  • the moving speed of the camera may be estimated from the speed at which the subject moves in the moving image.
  • the control circuit 101 may display a setting display 85 on the display screen 104 a of the monitor 104 for the user to set the degree of improvement in speed feeling.
  • the degree of improvement in the feeling of speed by each process in each of the above-described embodiments may be changed.
  • the sizes of the first and second crop areas in the crop processing may be changed according to the position of the slider 85a.
  • the crop area may be narrowed as the position of the slider 85a moves to the right.
  • the size of the processing target area and the degree of sharpness reduction in the sharpness reduction processing may be changed according to the position of the slider 85a. More specifically, the sharpness of the target area may be reduced as the position of the slider 85a moves to the right.
  • the control circuit 101 may display a setting display 86 on the display screen 104 a of the monitor 104 using the skill level of the photographer moving with the camera 1 as a parameter.
  • the setting display 86 is preferably capable of displaying a plurality of display forms that differ depending on the type of sport.
  • FIG. 15 shows an example of the setting display 86 when the sport selected by the user is skiing or snowboarding.
  • the display screen 104a shown in FIG. 15 displays a display 86a indicating that the sport selected by the user is skiing or snowboarding, and a proficiency level selection display 86b.
  • a proficiency level selection display 86b For example, when the user operates the input member 106 to select any one of “beginning”, “intermediate”, and “professional” on the selection display 86b, each process in the above-described embodiments is performed according to the selection content. You may make it change the improvement degree of a feeling of speed. Also in the third and fourth embodiments, the user may be able to set the degree of improvement in speed as described above.
  • the moving speed of the camera 1 has been described as an example of the speed information, but the speed information is not limited to the moving speed of the camera 1.
  • the speed information may be information on the distance between the camera 1 and a specific object. This is because the amount of change in the distance to the specific object changes as the speed of the camera 1 increases.
  • the camera 1 changes the crop region based on the magnitude (change amount, change rate) of the change in the distance between the camera 1 and the specific object.
  • the control circuit 101 acquires distance information from the camera 1 at the time of shooting to a specific object.
  • the distance information may be acquired (calculated) from the defocus amount or may be calculated from the output of the TOF sensor, for example. Such information may be acquired and recorded at the time of shooting.
  • the TOF sensor is an image sensor used for a known TOF (time of flight) method. In the TOF method, a light pulse (irradiation light) is emitted from a light source (not shown) toward the subject, and the distance to the subject is detected based on the time until the light pulse reflected by the subject returns to the TOF sensor. Technology.
  • the control unit 34 calculates the relative speed between the subject and the camera 1 based on the detected change in the distance to the subject, and sets the calculated relative speed as the moving speed V of the camera 1. Note that the image sensor 33a may be used as a TOF sensor.
  • the control circuit 101 calculates a distance change amount K (or change rate) from the acquired distance information.
  • the display range setting unit 101b does not change the cropping area if the distance change amount K (or rate of change) per unit time calculated at the first timing is less than the first predetermined value K1. However, if the distance change amount K (or change rate) calculated by the control circuit 101 is equal to or greater than the first predetermined value K1, the display range setting unit 101b narrows the crop area.
  • the display range setting unit 101b for a frame whose distance change amount K is greater than or equal to the first predetermined value K1 and less than the second predetermined value K2 (K1 ⁇ K2), A first crop area is set for the image.
  • the display range setting unit 101b has a second frame that is smaller than the first crop region with respect to the image of the frame for a frame whose distance change amount K (or rate of change) is greater than or equal to the second predetermined value K2.
  • Set the crop area is set the crop area. Note that changing the crop region in two stages according to the distance change amount K (or rate of change) is an example, and may be one stage or three or more stages.
  • the cropping area is not increased stepwise according to the magnitude of the change in distance, but the cropping area is changed continuously according to the distance change amount K (or rate of change). May be.
  • the crop area may be narrowed as the distance change amount K (or rate of change) increases.
  • the cropping area may not be set (for example, full angle of view display), and the cropping area may be narrowed as the distance change amount K (or rate of change) increases.
  • the moving speed of the camera 1 has been described as an example of the speed information, but the speed information is not limited to the moving speed of the camera 1.
  • the speed information may be information on the size of a specific object. This is because the amount of change in the size of the specific object changes as the speed of the camera 1 increases. Specifically, the camera 1 narrows the crop region based on the magnitude of change (change amount, rate of change) of the size of the specific object.
  • the control circuit 101 acquires information on the size of a specific object that has been shot.
  • the size information may be obtained using subject recognition (object recognition) technology or edge extraction technology.
  • the display range setting unit 101b calculates a change amount M (or change rate) of the size from the acquired information on the size of the specific subject.
  • the display range setting unit 101b does not change the crop area if the change amount M (or change rate) of the magnitude per unit time calculated at the first timing is less than the first predetermined value M1. However, if the change amount M (or change rate) of the magnitude calculated by the display circuit 101 is greater than or equal to the first predetermined value M1, the display range setting unit 101b narrows the crop area.
  • the display range setting unit 101b for a frame whose magnitude change amount M is not less than the first predetermined value M1 and less than the second predetermined value M2 (M1 ⁇ M2), A first crop area is set for the image of. Further, the display range setting unit 101b has a frame whose size change amount M (or rate of change) is greater than or equal to the second predetermined value M2 and is smaller than the first crop region with respect to the image of the frame. Set 2 crop area. Note that changing the crop region in two steps according to the magnitude change amount M (or change rate) is an example, and may be one step or three or more steps.
  • the cropping area is not lengthened stepwise according to the magnitude change amount M, but the crop area is continuously changed according to the magnitude change amount M (or rate of change). It may be. Specifically, the exposure time may be lengthened as the magnitude change amount M (or rate of change) increases.
  • the crop area may not be set (for example, full angle of view display), and the crop area may be narrowed as the size change amount M (or rate of change) increases.
  • the moving speed of the camera 1 has been described as an example of the speed information, but the speed information is not limited to the moving speed of the camera 1.
  • the speed information may be a loudness level. This is because as the speed of the camera 1 increases, the volume of sound to be acquired (particularly the volume of wind noise) increases. Specifically, the camera 1 narrows the crop area based on the volume of sound acquired at the time of shooting.
  • the control circuit 101 acquires sound volume information at the time of shooting.
  • the sound volume information may be obtained by analyzing the sound recorded by shooting. Further, the control circuit 101 may acquire information on the loudness of a specific frequency band corresponding to the wind noise.
  • the control circuit 101 calculates the sound volume S from the acquired sound volume information.
  • the display range setting unit 101b does not change the crop area if the sound volume S is less than the first predetermined value S1. However, if the loudness S is equal to or greater than the first predetermined value S1, the display range setting unit 101b narrows the crop area.
  • the display range setting unit 101b for a frame whose sound volume S is greater than or equal to the first predetermined value S1 and less than the second predetermined value S2 (S1 ⁇ S2), A first crop area is set for the image.
  • the display range setting unit 101b sets a second crop area that is narrower than the first crop area for an image of the frame for which the sound volume S is equal to or greater than the second predetermined value S2.
  • changing the crop area in two steps according to the loudness S is an example, and may be one step or three or more steps.
  • the cropping area may be continuously changed according to the sound volume S instead of being lengthened stepwise according to the sound volume S.
  • the crop area may be narrowed as the loudness S increases.
  • the crop area may not be set (for example, full angle of view display), and the crop area may be narrowed as the loudness S increases.
  • the moving speed V, the distance change amount K (change rate), the magnitude change amount M (change rate), and the sound volume S are set. Based on the above description, an example of narrowing the crop area has been described. Naturally, when the moving speed V is relatively slow (when the distance change amount K is small, the size change amount is small, When the volume of the sound is reduced), the crop area may be relatively widened.
  • the movement speed of the camera 1 has been described as an example of the speed information.
  • the process of reducing the sharpness of the peripheral portion of the image has been described. Is not limited to the moving speed of the camera 1.
  • the speed information may be information on the distance between the camera 1 and a specific object.
  • the camera 1 changes the processing target area based on the magnitude (change amount, change rate) of the change in the distance between the camera 1 and the specific object.
  • the control circuit 101A calculates a distance change amount K (or change rate) from the acquired distance information.
  • the processing target area setting unit 101d does not change the processing target area if the distance change amount K (or rate of change) per unit time calculated at the first timing is less than the first predetermined value K1. However, if the distance change amount K (or change rate) calculated by the control circuit 101b is equal to or greater than the first predetermined value K1, the processing target area setting unit 101d widens the processing target area.
  • the processing target area setting unit 101d for a frame whose distance change amount K is greater than or equal to the first predetermined value K1 and less than the second predetermined value K2 (K1 ⁇ K2), A first processing target area is set for the image of.
  • the processing target area setting unit 101d has a frame whose distance change amount K (or rate of change) is greater than or equal to the second predetermined value K2 and is wider than the first processing target area for the image of the frame. 2 processing target areas are set. Note that changing the crop region in two stages according to the distance change amount K (or rate of change) is an example, and may be one stage or three or more stages.
  • the processing target area is not changed in a stepwise manner in accordance with the magnitude of the change in distance, but is continuously changed in accordance with the distance change amount K (or rate of change). You may do it. Specifically, the region to be processed may be wider as the distance change amount K (or rate of change) increases. For example, in the initial setting, the processing target area may not be set (for example, full angle of view display), and the processing target area may be widened as the distance change amount K (or rate of change) increases.
  • the moving speed of the camera 1 has been described as an example of the speed information, but the speed information is not limited to the moving speed of the camera 1.
  • the speed information may be information on the size of a specific object.
  • the camera 1 widens the processing target area based on the magnitude of change (change amount, rate of change) of the size of the specific object.
  • the control circuit 101A acquires information on the size of a specific object that has been shot.
  • the processing target area setting unit 101d does not change the processing target area if the change amount M (or rate of change) of the magnitude per unit time calculated at the first timing is less than the first predetermined value M1. However, if the change amount M (or change rate) of the magnitude calculated by the control circuit 101A is equal to or greater than the first predetermined value M1, the processing target area setting unit 101d widens the processing target area.
  • the processing target area setting unit 101d performs processing for frames whose magnitude change amount M is equal to or greater than the first predetermined value M1 and less than the second predetermined value M2 (M1 ⁇ M2).
  • a first processing target area is set for the frame image.
  • the processing target area setting unit 101d for a frame whose magnitude change amount M (or rate of change) is greater than or equal to the second predetermined value M2, for the image of that frame, than the first processing target area.
  • a wide second processing target area is set. Note that changing the processing target area in two steps according to the magnitude change amount M (or change rate) is an example, and may be one step or three or more steps.
  • the processing target area is not changed in a stepwise manner in accordance with the magnitude change amount M, but is continuously changed in accordance with the magnitude change amount M (or rate of change). You may make it do.
  • the processing target area may be widened as the magnitude change amount M (or rate of change) increases.
  • the processing target area may not be set (for example, full angle of view display), and the processing target area may be widened as the size change amount M (or change rate) increases.
  • the moving speed of the camera 1 has been described as an example of the speed information, but the speed information is not limited to the moving speed of the camera 1.
  • the speed information may be a loudness level.
  • the camera 1 widens the processing target area based on the volume of sound acquired at the time of shooting.
  • the control circuit 101A acquires information on the volume of sound at the time of shooting.
  • the sound volume information may be obtained by analyzing the sound recorded by shooting.
  • the control circuit 101A may acquire information on the loudness of a specific frequency band corresponding to the wind noise.
  • the control circuit 101A calculates the sound volume S from the acquired sound volume information.
  • the processing target area setting unit 101d does not change the processing target area if the sound volume S is less than the first predetermined value S1. However, if the loudness S is equal to or greater than the first predetermined value S1, the processing target area setting unit 101d widens the processing target area.
  • the processing target area setting unit 101d performs processing for a frame whose sound volume S is greater than or equal to the first predetermined value S1 and less than the second predetermined value S2 (S1 ⁇ S2).
  • a first processing target area is set for the image of.
  • the processing target area setting unit 101d has a second processing target that is wider than the first processing target area with respect to the image of the frame for a frame whose sound volume S is equal to or greater than the second predetermined value S2.
  • Set the area Note that changing the processing target area in two steps according to the loudness S is an example, and may be one step or three or more steps.
  • the processing target area may be changed continuously according to the sound volume S, instead of gradually expanding the processing target area according to the sound volume S. Specifically, as the loudness S increases, the processing target area may be increased.
  • the processing target area may not be set (for example, full angle of view display), and the processing target area may be narrowed as the sound volume S increases.
  • the processing target region is determined based on the moving speed V, the distance change amount K (change rate), the magnitude change amount M (change rate), and the sound magnitude S.
  • the processing target area may be made relatively narrow.
  • a display device comprising: a display control unit that controls a region to be processed for a moving image displayed on a display unit using the moving image data.
  • the acquisition unit acquires information on a moving speed of the imaging device, and the display control unit is configured to acquire the moving image based on the information on the moving speed acquired by the acquisition unit. Control the area where the image is processed.
  • the display control unit narrows the area of the moving image displayed on the display unit as the moving speed increases.
  • the display control unit causes the display unit to display the moving image from the first area of the moving image. A narrow second region is displayed.
  • the display device as in (2) includes an image processing unit that performs image processing on a partial region of the moving image, and the image processing unit performs image processing as the moving speed increases. The area is enlarged, and the display control unit displays a moving image that has been subjected to image processing in a part of the area by the image processing unit.
  • the image processing unit may select a first of the moving image areas.
  • the image processing is performed on the second region wider than the first region.
  • the display control unit displays an image obtained by adding blur to a specific subject of the moving image based on the moving speed information.
  • the acquisition unit acquires distance information between the imaging device and a specific object, and the display control unit calculates the distance based on the distance information acquired by the acquisition unit.
  • a region for processing the moving image is controlled based on the magnitude of the change.
  • the display control unit narrows the area of the moving image displayed on the display unit as the change in the distance increases.
  • the display control unit may start from the first area of the moving image when the distance change is a second magnitude greater than the first magnitude. A narrow second region is displayed.
  • the display device as in (8) includes an image processing unit that performs image processing on a partial region of the moving image, and the image processing unit performs image processing with respect to a large change in the distance. The area to be performed is enlarged, and the display control unit displays a moving image that has undergone image processing in a part of the region by the image processing unit.
  • the image processing unit when the magnitude of the change in the distance becomes a second magnitude larger than the first magnitude, The image processing is performed on the second area wider than the first area.
  • the display control unit displays an image obtained by adding blur to a specific subject of the moving image based on the magnitude of the change in the distance.
  • the acquisition unit acquires information on the size of a specific object, and the display control unit is based on the magnitude of the change in size acquired by the acquisition unit. The area for processing the moving image is controlled.
  • the display control unit narrows the region of the moving image displayed on the display unit as the change in size increases.
  • the display control unit is configured to display the first region of the moving image when the magnitude of the magnitude change is a second magnitude greater than the first magnitude. A narrower second region is displayed.
  • the display device as described in (14) includes an image processing unit that performs image processing on a partial region of the moving image, and the image processing unit performs image processing with respect to a large change in the size.
  • the display control unit displays a moving image that has undergone image processing in a part of the region by the image processing unit.
  • the image processing unit is configured to select a first of the moving image regions. The image processing is performed on the second region wider than the first region.
  • the display control unit displays an image obtained by adding blur to a specific subject of the moving image based on the change in size.
  • the acquisition unit acquires sound information, and the display control unit controls a region for processing the moving image based on the sound volume.
  • the display control unit narrows a region of the moving image displayed on the display unit as the volume of the sound increases.
  • the display control unit is narrower than the first area of the moving image when the volume of the sound becomes a second volume rather than the first volume. The second area is displayed.
  • the display device as in (20) includes an image processing unit that performs image processing on a partial area of the moving image, and the image processing unit performs image processing with respect to an increase in the volume of the sound.
  • the display control unit displays a moving image that has undergone image processing in a part of the region by the image processing unit.
  • the image processing unit is configured to display a first of the moving image areas when the volume of the sound becomes a second volume larger than the first volume. The image processing is performed on the second region wider than the first region.
  • the display control unit displays an image obtained by adding blur to a specific subject of the moving image based on the loudness of the sound.
  • the program includes a first procedure for causing the computer to acquire moving image data generated by the imaging device, and speed information of the imaging device while generating the moving image data, and the first procedure. Based on the acquired speed information, a control second procedure is executed for a region to be processed for a moving image to be displayed on the display unit using the moving image data.
  • image display devices 101 and 101A control circuit 101a; image data input unit 101b; display range setting unit 101c; display image generation unit 101d;

Abstract

表示装置は、撮像装置によって生成された動画像データと、動画像データを生成している間の撮像装置の速度情報を取得する取得部と、取得部で取得した速度情報に基づいて、動画像データを用いて表示部に表示させる動画像に対して処理する領域を制御する表示制御部とを備える。

Description

表示装置およびプログラム
 本発明は、表示装置およびプログラムに関する。
 移動する人や物体に取り付けられて、動画像を撮像するのに適した撮像装置が知られている(特許文献1参照)。撮像時に撮像装置が移動する場合があるが、移動して撮影することについて考慮されているものではなかった。
日本国特開2012-205163号公報
(1)本発明の第1の態様による表示装置は、撮像装置によって生成された動画像データと、前記動画像データを生成している間の前記撮像装置の速度情報を取得する取得部と、前記取得部で取得した速度情報に基づいて、前記動画像データを用いて表示部に表示させる動画像に対して処理する領域を制御する表示制御部と、を備える。
(2)本発明の第1の態様によるプログラムは、コンピュータに、撮像装置によって生成された動画像データと、前記動画像データを生成している間の前記撮像装置の速度情報を取得させる第1手順と、前記第1手順で取得した速度情報に基づいて、前記動画像データを用いて表示部に表示させる動画像に対して処理する領域を制御する第2手順と、を実行させる。
(3)本発明の第3の態様による表示装置は、撮像装置によって生成された動画像データと、前記撮像装置が撮像している間の移動に関する情報と、を取得する取得部と、前記取得部で取得した移動に関する情報に基づいて、前記動画像データの表示を制御する制御部と、を備える。
第1の実施の形態による画像表示装置の要部構成を説明するブロック図である。 移動する人物の例としてゲレンデを滑り下りるスキーヤーを挙げ、スキーヤーの頭部にカメラを取り付けた様子を模式的に示す図である。 図2に示すようにスキーヤーの頭部に取り付けられたカメラで撮像した動画像のあるフレームにおける画像の一例である。 記憶装置に記録されている動画像の各フレームの画像と、モニタに表示される画像との関係を示す図である。 第1の実施の形態の画像表示装置で行われる処理を示したフローチャートである。 第2の実施の形態のカメラの構成示すブロック図である。 処理対象領域および非対象領域を説明するための図である。 第2の実施の形態の画像表示装置で行われる処理を示したフローチャートである。 第3の実施の形態のカメラの構成示すブロック図である。 第3の実施の形態における各フレームで撮像して得られる画像と、本実施の形態で得られる画像との関係を示す図である。 第3の実施の形態のカメラの撮像に関する処理を示したフローチャートである。 第4の実施の形態のカメラの撮像に関する処理を示したフローチャートである。 変形例を説明する図である。 変形例を説明する図である。 変形例を説明する図である。
---第1の実施の形態---
 図1~図5を参照して、画像表示装置の第1の実施の形態を説明する。図1は、第1の実施の形態の画像表示装置の構成示すブロック図である。
 本実施の形態の画像表示装置は、画像を表示するためのモニタを有するパーソナルコンピュータ等により構成される。この画像表示装置では、外部の撮像装置で撮像して得られた動画像や静止画像を表示できる。以下、詳細に説明する。
 図1は、第1の実施の形態による画像表示装置100の要部構成を説明するブロック図である。画像表示装置100は、制御回路101、HDDやSSD等の記憶装置102、モニタ104、メモリ105、入力部材106、メモリカードインタフェース107、および外部インタフェース108を備える。
 入力部材106は、ユーザによって操作されるスイッチやボタンを有するキーボードや、マウス等の操作部材である。入力部材106は、モニタ104に表示されたメニュー画面からユーザが所望するメニューや設定を選択し、選択したメニューや設定を実行させる際にユーザにより操作される。
 記憶装置102には、たとえば外部の撮像装置で撮影した動画像や静止画像に対応する画像ファイルなどが記録されている。外部インタフェース108は、たとえばUSBインタフェースケーブルや無線伝送路を介して撮像装置等の外部機器とデータ通信を行う。画像表示装置100は、メモリカードインタフェース107や外部インタフェース108を介してメモリカード107aや外部機器から画像ファイルなどを入力する。入力された画像ファイルは、制御回路101により制御されて記憶装置102に記録される。たとえば、外部の撮像装置で生成された画像ファイルは、制御回路101により制御されて記憶装置102に記録される。記憶装置102には、制御回路101で実行される各種のプログラム等が記録される。
 なお、第1の実施の形態では、外部の撮像装置で生成された動画像の画像ファイルには、後述するように動画像の各フレームごとに撮像した時の撮像装置の速度情報が含まれている。以下の第1の実施の形態では速度情報を移動速度の情報として説明する。ここで、速度情報(移動速度の情報)は、フレームごとに有している必要はなく、所定のフレーム間隔(3フレームごと)に有していてもよく、所定の時間間隔(例えば3秒おき)で有していてもよい。また、加速度に所定の変化があった時刻ごと移動速度の情報(あるいは移動速度を算出できる情報)を有していてもよい。以下の説明では、動画像の各フレームを撮像した時の撮像装置の移動速度の情報を移動速度データとも呼ぶ。
 制御回路101は、画像表示装置100の制御を行うマイクロコンピュータであり、CPUやROMその他周辺回路により構成される。制御回路101は、画像データ入力部101aと、表示範囲設定部101bと、表示画像生成部101cとを機能として備える。
 画像データ入力部101aは、たとえば記憶装置102に記録されている画像ファイルのデータを読み出す。
 表示範囲設定部101bは、動画像の各フレームに対して、モニタ104に表示させる範囲を設定する。表示画像生成部101cは、動画像の各フレームに対して、表示範囲設定部101bが設定した範囲がモニタ104に表示されるように表示用の画像信号を生成する。
 表示範囲設定部101bにおける表示範囲の設定、および表示画像生成部101cにおける表示用の画像信号の生成については、後で詳述する。
 メモリ105は制御回路101のワーキングメモリであり、たとえばSDRAMにより構成される。モニタ104は、たとえば液晶モニタである。
 移動する人や物体に取り付けて被写体を撮像することにより、動画像や静止画像を生成する撮像装置として、例えばアクションカメラ、アクションカム、ウェアラブルカメラ等の名称で呼ばれるカメラが知られている。このカメラは、たとえば図2に示すように移動する人物や物体に取り付けて撮影し、動画像を生成できる。このカメラは、たとえば、加速度センサなどを内蔵し、加速度センサの検出出力に基づきカメラの移動速度を算出して、動画像の各フレームを撮像した時のカメラ移動速度を当該フレームに関連付けて記録する。また移動速度算出部34bは、グローバルポジショニングシステム(GPS)からの信号により、カメラ1の移動速度を算出してもよい。図2は、移動する人物の例としてゲレンデを滑り下りるスキーヤー(競技者)を挙げ、スキーヤーの頭部にカメラ1を取り付けた様子を模式的に示す図である。図2に示す例では、カメラ1は、スキーヤーの頭部に取り付けられているが、スキーヤーの胸部や腕部に取り付けられていてもよく、スキー板に取り付けられていてもよい。
 図3は、図2に示すようにスキーヤーの頭部に取り付けられたカメラ1で撮像して生成した動画像のあるフレームにおける画像の一例であり、ゲレンデの様子を示している。この画像50には、雪が積もっている斜面51の両脇に複数の木52が存在している。画像50では、斜面51の向こう側には、山53が写っており、山53の上には空54が写っている。
 この種のカメラは、一般に撮影光学系が短い焦点距離、すなわち画角が広角で撮影される場合が多い。撮像時にカメラ1が移動する場合、画角が広角であると速度感が薄れてしまうおそれがある。たとえば、図2に示すように、人物とともにカメラ1が移動する場合、カメラ1で撮像して得られる動画像では、たとえば図3における木52などの周囲の風景が移動する様子が記録されるが、再生時に速度感が薄れてしまうおそれがある。そのため、撮影して生成された動画像を再生すると、実際に撮影時にスキーヤーが体感している速度感よりも速度感が薄れてしまうおそれがある。
 一般的に、人間の視野は、その人間の移動速度が速くなるほど狭くなる傾向にある。カメラ1では、画像50に示す範囲が撮像されるが、スキーヤーの滑降速度が速くなると、たとえば、スキーヤーの視野は、枠81で示すような範囲へと狭まる。
 そこで、第1の実施の形態の画像表示装置100では、動画像の閲覧者に速度感を感じさせるために、カメラ1の移動速度が速くなる場面では、モニタ104に表示される動画像の範囲が狭まるようにする。すなわち、第1の実施の形態の画像表示装置100では、カメラ1の移動速度が速くなる場面では、撮像して得られた画像の一部だけを切り出し、切り出した画像を拡大してモニタ104に表示させる。このようにして、実際に撮影時にスキーヤーが体感している速度感を閲覧者に感じさせる。なお、画像表示装置100は、カメラ1の移動速度が遅い場面では、撮像して得られた画像の全範囲をモニタ104に表示させる。
 具体的には、制御回路101は、次のようにしてカメラ1の移動速度に基づいてモニタ104に表示させる画像の範囲を変更し、モニタ104に表示させる。
 制御回路101の画像データ入力部101aは、記憶装置102に記録されている動画像の画像ファイルから動画像の各フレームの画像データと、各フレームを撮像した時のカメラ1の移動速度Vの情報である移動速度データとを読み込む。
 制御回路101の表示範囲設定部101bは、カメラ1の移動速度Vが第1の所定値V1以上であるフレームについては、そのフレームの画像の一部を切り出すクロップ処理を行う。以下の説明では、クロップ処理によって切り出す領域をクロップ領域と呼ぶ。たとえば、表示範囲設定部101bは、クロップ処理によって、図3の画像50に対して、枠81で囲んだ範囲をクロップ領域に設定する。
 詳述すると、表示範囲設定部101bは、カメラ1の移動速度Vが第1の所定値V1以上であり、かつ、第1の所定値V1よりも大きい第2の所定値V2未満であるフレームについては、そのフレームの画像に対して第1のクロップ領域を設定する。
 また、表示範囲設定部101bは、カメラ1の移動速度Vが第2の所定値V2以上であるフレームについては、そのフレームの画像に対して第1のクロップ領域よりも狭い第2のクロップ領域を設定する。
 なお、表示範囲設定部101bは、カメラ1の移動速度Vが第1の所定値V1未満であるフレームや、移動速度データが存在しないフレームについては、クロップ処理を行わない。
 第1のクロップ領域や第2のクロップ領域の大きさは、あらかじめ設定された大きさであってもよく、画像ファイルに記録されている撮像時の焦点距離や露光時間やISO感度や絞り値やフレームレート等の撮像条件に基づいて変化する可変値であってもよい。
 なお、カメラ1の移動速度Vに応じてクロップ領域の大きさを上述したように2段階で変更することは、一例であり、1段階であってもよく、3段階以上であってもよい。また、上述したようにクロップ領域の大きさを移動速度Vに応じて段階的に変更するのではなく、カメラ1の移動速度Vに応じて連続的にクロップ領域の大きさを変更するようにしてもよい。具体的には、カメラ1の移動速度が速くなるほど、クロップ領域の大きさを狭くするようにしてもよい。例えば、初期設定で設定されるクロップ領域からカメラ1の移動速度が速くなるほど連続的にクロップ領域の大きさを狭くすることとしてもよい。
 なお、クロップ領域の中心位置は、そのフレームの画像の中心位置としてもよく、動画像の中の被写体の移動方向から推定されるカメラ1の移動方向に基づいて求めた位置としてもよい。また、動画像の中の被写体のうち、上述したようにして推定したカメラ1の移動方向とおおよそ同じ方向に存在する被写体を検出し、検出された被写体を撮影者が見ていると思われる被写体として推定し、この被写体の中心位置をクロップ領域の中心位置としてもよい。
 また、クロップ領域の中心位置をユーザが設定できるようにしてもよい。たとえば、撮像時のカメラ1の向きとカメラ1の移動方向とがずれていたことを動画像の再生時にユーザが気付いた場合に、ユーザが入力部材106を操作することでクロップ領域の中心位置を設定できるようにすることが望ましい。
 なお、後述する拡大処理の便宜上、クロップ領域は、撮像して得られる画像と同じアスペクト比を有する矩形形状であることが望ましい。
 制御回路101の表示画像生成部101cは、クロップ処理によって切り出したクロップ領域の画像を、クロップ処理前の元の画像の大きさに拡大する拡大処理を行う。そして、拡大処理後の画像を、そのフレームの表示用の画像とする。したがって、そのフレームの再生時には、モニタ104には拡大処理後の画像が表示される。
 なお、表示画像生成部101cは、上述したクロップ処理が行われていなければ上述した拡大処理は行わず、画像データ入力部101aで読み込んだ画像をそのフレームの表示用の画像とする。したがって、そのフレームの再生時には、モニタ104には、記憶装置102に記録されている画像がそのまま表示される。
 図4は、記憶装置102に記録されている動画像の各フレームの画像と、モニタ104に表示される画像との関係を示す図である。
 フレームF1,F2の撮像時のカメラ1の移動速度Vが第1の所定値V1未満であった場合、表示画像生成部101cは、記憶装置102に記録されている各フレームF1,F2の画像501,502に対して上述したクロップ処理および拡大処理を行わない。表示画像生成部101cは、記憶装置102に記録されている各フレームF1,F2の画像501,502の画像を各フレームF1,F2の表示用の画像とする。したがって、モニタ104には画像501,502が表示される。
 たとえば、フレームF3の撮像時のカメラ1の移動速度Vが第1の所定値V1以上であった場合について説明する。この場合、表示画像生成部101cは、記憶装置102に記録されているフレームF3の画像503に対して上述したクロップ処理を行う。すなわち、表示画像生成部101cは、記憶装置102に記録されているフレームF3の画像503に対して、クロップ領域803を設定し、設定したクロップ領域803を切り出す。
 なお、表示画像生成部101cは、フレームF3の撮像時のカメラ1の移動速度Vが第1の所定値V1以上であり、かつ、第2の所定値V2未満であれば、画像503に対して第1のクロップ領域を設定する。また、表示画像生成部101cは、フレームF3の撮像時のカメラ1の移動速度Vが第2の所定値V2以上であれば、画像503に対して第2のクロップ領域を設定する。
 そして、表示画像生成部101cは、クロップ処理によって切り出されたクロップ領域803の画像をクロップ処理前の画像503の大きさに拡大し、拡大後の画像703をフレームF3の表示用の画像とする。したがって、モニタ104には拡大後の画像703が表示される。
 フレームF4の撮像時のカメラ1の移動速度Vがカメラ1の移動速度Vが第1の所定値V1以上であれば、表示画像生成部101bおよび表示画像生成部101cは、フレームF4の画像504に対しても上述したクロップ処理および拡大処理を行う。すなわち、表示画像生成部101bは、画像504に対して、クロップ領域804を設定し、設定したクロップ領域804を切り出す。そして、表示画像生成部101cは、クロップ領域834の画像をクロップ処理前の元の画像504の大きさに拡大し、拡大後の画像704をフレームF4の表示用の画像とする。したがって、モニタ104には拡大後の画像704が表示される。
 このように、カメラ1の移動速度Vが速くなる場面では画像の一部が拡大されてモニタ104に表示されるので、モニタ104に表示された動画像を閲覧すると、閲覧者は、カメラ1の移動速度Vが速くなる場面では視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者に臨場感を与えることができる。なお、図4の例のように、フレームF2からフレームF3のようにクロップ領域が変更される場合には、画像502から画像703に代わるのではなく、画像502からクロップ領域を徐々に狭くして画像を表示しながら、クロップ領域803の画像703を表示することとしてもよい。
 図5は、第1の実施の形態の画像表示装置100で行われる処理を示したフローチャートである。たとえば、ユーザによって入力部材106が操作されて、記憶装置102に記録されている動画像の画像ファイルの再生が指示されると、図5に示す処理が制御回路101で実行される。
 ステップS11において、制御回路101は、まだ表示させていないフレーム(未表示フレーム)の情報、すなわち記憶装置102に記録された画像データと移動速度データとを読み込んでステップS13へ進む。ステップS13において、制御回路101は、ステップS11で読み込んだ未表示フレームの情報に移動速度データが含まれていたか否かを判断する。
 ステップS11で読み込んだ未表示フレームの情報に移動速度データが含まれていればステップS13が肯定判断されてステップS15へ進み、制御回路101の表示範囲設定部101bは、ステップS11で読み込んだカメラ1の移動速度Vが第1の所定値V1未満であるか否かを判断する。
 ステップS11で読み込んだカメラ1の移動速度Vが第1の所定値V1以上であればステップS15が否定判断されてステップS17へ進み、制御回路101の表示範囲設定部101bは、ステップS11で読み込んだカメラ1の移動速度Vが第2の所定値V2以上であるか否かを判断する。
 ステップS11で読み込んだカメラ1の移動速度Vが第2の所定値V2未満であればステップS17が否定判断されてステップS21へ進み、制御回路101の表示範囲設定部101bは、未表示フレームの画像に対して上述したように第1のクロップ領域を切り出すクロップ処理を行ってステップS25へ進む。
 ステップS11で読み込んだカメラ1の移動速度Vが第2の所定値V2以上であればステップS17が肯定判断されてステップS23へ進み、制御回路101の表示範囲設定部101bは、未表示フレームの画像に対して上述したように第1のクロップ領域よりも小さな第2のクロップ領域を切り出すクロップ処理を行ってステップS25へ進む。
 ステップS25において、制御回路101の表示画像生成部101cは、ステップS21またはステップS23のクロップ処理で切り出されたクロップ領域の画像に対して上述した拡大処理を行ってステップS27へ進む。ステップS27において、制御回路101は、ステップS25で拡大処理を行った後の画像をモニタ104に表示させてステップS31へ進む。
 ステップS31において、制御回路101は、再生が終了したか否か、すなわち、再生が指示された動画像の画像ファイルに含まれるすべてのフレームの画像を表示し終えたか否かを判断する。ステップS31が肯定判断されると、制御回路101は本プログラムを終了する。ステップS31が否定判断されるとステップS33へ進み、制御回路101は、たとえば、ユーザによって入力部材106が操作されて、動画像の画像ファイルの再生停止が指示されたか否かを判断する。ステップS33が否定判断されるとステップS11へ戻る。ステップS33が肯定判断されると、制御回路101は本プログラムを終了する。
 ステップS11で読み込んだ未表示フレームの情報に移動速度データが含まれていなければステップS13が否定判断されてステップS27へ進み、制御回路101は、ステップS11で読み込んだ未表示フレームの画像をモニタ104に表示させてステップS31へ進む。
 ステップS11で読み込んだカメラ1の移動速度Vが第1の所定値V1未満である場合も同様である。すなわち、ステップS11で読み込んだカメラ1の移動速度Vが第1の所定値V1未満であればステップS15が肯定判断されてステップS27へ進み、制御回路101は、ステップS11で読み込んだ未表示フレームの画像をモニタ104に表示させてステップS31へ進む。
 上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)画像表示装置100は、カメラ1によって撮像された動画像と、撮像時のカメラの移動速度Vに関する移動速度データとを取得する画像データ入力部101aと、画像データ入力部101aで取得した移動速度Vに基づいて動画像の表示領域を決定する表示範囲設定部101bと、表示範囲設定部101bで決定された表示領域内の動画像を表示するモニタ104と、を備える。
 これにより、カメラ1の移動速度Vが速くなる場面では、モニタ104に表示される画像の一部を拡大して表示することができるので、モニタ104に表示された動画像を閲覧すると、閲覧者は、カメラ1の移動速度Vが速くなると視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者に臨場感を与えることができる。
(2)表示範囲設定部101bは、移動速度Vが速くなった場合に表示領域を狭くする。これにより、カメラ1の移動速度Vが速くなる場面では、モニタ104に表示される画像の一部が拡大されて表示されるので、モニタ104に表示された動画像を閲覧すると、閲覧者は、カメラ1の移動速度Vが速くなると視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者に臨場感を与えることができる。
---第2の実施の形態---
 図6~8を参照して、画像表示装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、カメラ1の移動速度Vが速くなる場面では、画像の一部を拡大する代わりに、画像の周辺部分の像の鮮明度を下げる点が、第1の実施の形態と異なる。
 上述したように、一般的に、人間の視野は、その人間の移動速度が速くなるほど狭くなる傾向にある。そこで、第2の実施の形態の画像表示装置100では、カメラ1の移動速度が速くなる場面では、動画像の閲覧者に動画像の範囲が狭まったように感じさせることで速度感を感じさせるために、モニタ104に表示される動画像の周辺部分の鮮明度を低下させる。
 図6は、第2の実施の形態のカメラ1の構成示すブロック図である。制御回路101Aは、画像データ入力部101aと、表示画像生成部101cと、処理対象領域設定部101dとを機能として備える。処理対象領域設定部101dは、カメラ1の移動速度Vが第1の所定値V1以上であるフレームについては、そのフレームの画像の周辺部分の鮮明度を低下させる領域を設定する領域設定処理を行う。表示画像生成部101cは、対象領域設定処理によって設定された領域に対して鮮明度を低下させる鮮明度低下処理を行う。以下、領域設定処理および鮮明度低下処理について説明する。
 本実施の形態において、鮮明度低下処理は、画像の周辺側の領域に対して、以下の(a)から(e)に挙げた処理の少なくとも1つを行う処理である。
(a)像をぼかす。例えば像の輪郭を不鮮明にする。
(b)コントラストを低下させる。
(c)彩度を低下させる。
(d)明度を低下させる。
(e)ブラーを付加する。
 ここで、(e)で挙げた「ブラーを付加する」とは、露光時間が延長された場合と同様の像ブレを付与することである。このように像ブレを付与することを、以下の説明では、ブラーを付加する、ブラーを付与する等という。
 露光時間が短い場合、像ブレが必要以上に抑制され、再生時に動画像の滑らかさが感じられ難くなり、速度感が薄れてしまうおそれがある。このような場合にはブラーを付加することで、適度な像ブレによって動画像が滑らかに再生されるので、再生された動画像を閲覧した閲覧者が速度感を感じることができ、臨場感を味わうことができる。
 以下の説明では、鮮明度低下処理を行う領域を処理対象領域と呼び、鮮明度低下処理を行わない領域を非対象領域と呼ぶ。図7は、処理対象領域および非対象領域を説明するための図である。たとえば、処理対象領域設定部101dは、領域設定処理によって、あるフレームの画像50に対して、枠82の外側のハッチングを施した領域を処理対象領域83に設定する。枠82の内側の領域は非対象領域84である。なお、図7における枠82およびハッチングの線は、説明の便宜上記載したものであり、画像50の再生時には現れない。
 なお、非対象領域84の中心位置は、そのフレームの画像の中心位置としてもよく、動画像の中の被写体の移動方向から推定されるカメラ1の移動方向に基づいて求めた位置としてもよい。また、動画像の中の被写体のうち、上述したようにして推定したカメラ1の移動方向とおおよそ同じ方向に存在する被写体を検出し、検出された被写体を撮影者が見ていると思われる被写体として推定し、この被写体の中心位置を非対象領域84の中心位置としてもよい。
 また、非対象領域84の中心位置をユーザが設定できるようにしてもよい。たとえば、撮像時のカメラ1の向きとカメラ1の移動方向とがずれていたことを動画像の再生時にユーザが気付いた場合に、ユーザが入力部材106を操作することで非対象領域84の中心位置を設定できるようにすることが望ましい。
 なお、非対象領域84の形状は、図7に示すように楕円形であってもよく、円形であってもよく、矩形であってもよく、直線や曲線で構成される閉じた形状であってもよい。
 処理対象領域設定部101dは、カメラ1の移動速度Vが第1の所定値V1以上であり、かつ、第2の所定値V2未満であるフレームについては、そのフレームの画像に対して第1の処理対象領域を設定する。また、処理対象領域設定部101dは、カメラ1の移動速度Vが第2の所定値V2以上であるフレームについては、そのフレームの画像に対して第1の処理対象領域よりも広い第2の処理対象領域を設定する。すなわち、処理対象領域設定部101dは、カメラ1の移動速度Vが速くなるほど処理対象領域83が広くなるように、換言すると非対象領域84が狭くなるように、処理対象領域83を設定する。
 第1の処理対象領域や第2の処理対象領域の大きさは、あらかじめ設定された大きさであってもよく、画像ファイルに記録されている撮像時の焦点距離や露光時間やISO感度や絞り値やフレームレート等の撮像条件に基づいて変化する可変値であってもよい。
 なお、カメラ1の移動速度Vに応じて処理対象領域の大きさを上述したように2段階で変更することは、一例であり、1段階であってもよく、3段階以上であってもよい。また、上述したように処理対象領域の大きさを移動速度Vに応じて段階的に変更するのではなく、カメラ1の移動速度Vに応じて連続的に処理対象領域の大きさを変更するようにしてもよい。具体的には、カメラ1の移動速度Vが速くなるほど、処理対象領域の大きさを大きくするようにしてもよい。例えば、初期設定で設定される処理対象領域からカメラ1の移動速度Vが速くなるほど連続的に処理対象領域の大きさを大きくすることとしてもよい。
 表示画像生成部101cは、設定された処理対象領域に対して、上述した鮮明度低下処理を行い、表示用の画像信号を生成する。したがって、そのフレームの再生時には、モニタ104には周辺部の鮮明度が低下した画像が表示される。
 なお、表示画像生成部101cは、処理対象領域の全体が同程度に不鮮明となるように鮮明度低下処理を行ってもよく、非対象領域から離れるにつれてより不鮮明となるように鮮明度低下処理を行ってもよい。具体的には、表示画像生成部101cは、非対象領域から離れるにつれて像をぼかす程度、あるいは付加するブラーの程度を大きくする。また、例えば、表示画像生成部34bは、非対象領域から離れるにつれてコントラスト、彩度あるいは明度の少なくともいずれかを低下させてもよい。これらのぼかし、コントラストの低下、彩度の低下、明度の低下、ブラーの付加は、いずれか一つのみを行ってもよく、2つ以上の画像処理を合わせて行ってもよい。
 また、表示画像生成部101cは、カメラ1の移動速度Vが速くなるほど処理対象領域が不鮮明となるように鮮明度低下処理を行ってもよい。
 なお、処理対象領域設定部101dは、カメラ1の移動速度Vが第1の所定値V1未満であるフレームや、移動速度Vの情報が存在しないフレームについては、そのフレームの画像に対して領域設定処理を行わない。
 表示画像生成部101cは、上述した領域設定処理が行われていなければ上述した鮮明度低下処理は行わず、画像データ入力部101aで読み込んだ画像をそのフレームの表示用の画像とする。したがって、そのフレームの再生時には、モニタ104には、記憶装置102に記録されている画像がそのまま表示される。
 このように、カメラ1の移動速度Vが速くなる場面では画像の周辺部分の鮮明度を低下させた画像がモニタ104に表示されるので、モニタ104に表示された動画像を閲覧すると、閲覧者は、カメラ1の移動速度Vが速くなる場面では視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者に臨場感を与えることができる。
 図8は、第2の実施の形態の画像表示装置100で行われる処理を示したフローチャートである。たとえば、ユーザによって入力部材106が操作されて、記憶装置102に記録されている動画像の画像ファイルの再生が指示されると、図8に示す処理が制御回路101Aで実行される。ステップS11からステップS15までは、図5に示した第1の実施の形態と同じである。
 ステップS17において、制御回路101Aの処理対象領域設定部101dは、ステップS11で読み込んだカメラ1の移動速度Vが第2の所定値V2以上であるか否かを判断する。
 ステップS11で読み込んだカメラ1の移動速度Vが第2の所定値V2未満であればステップS17が否定判断されてステップS41へ進み、制御回路101Aの処理対象領域設定部101dは、上述したように第1の処理対象領域を設定してステップS45へ進む。
 ステップS11で読み込んだカメラ1の移動速度Vが第2の所定値V2以上であればステップS17が肯定判断されてステップS43へ進み、制御回路101Aの処理対象領域設定部101dは、上述したように第1の処理対象領域よりも広い第2の処理対象領域を設定してステップS45へ進む。
 ステップS45において、制御回路101Aの表示画像生成部101cは、設定された処理対象領域に対して、上述した鮮明度低下処理を行ってステップS27へ進む。ステップS27において、制御回路101は、ステップS45で鮮明度低下処理を行った後の画像をモニタ104に表示させてステップS31へ進む。ステップS31以降の処理は、図5に示した第1の実施の形態と同じである。
 第2の実施の形態のカメラ1では、第1の実施の形態の作用効果に加えて次の作用効果を奏する。
(1)画像表示装置100は、カメラ1によって撮像された動画像と、撮像時のカメラ1の移動速度Vに関する移動速度データとを取得する画像データ入力部101aと、画像データ入力部101aで取得した移動速度Vに基づいて動画像の周辺領域の像を不鮮明にする処理を行う処理対象領域設定部101dおよび表示画像生成部101cと、処理対象領域設定部101dおよび表示画像生成部101cで処理された動画像を表示するモニタ104と、を備える。
 これにより、カメラ1の移動速度Vが速くなる場面では、モニタ104に表示される画像の周辺領域の鮮明度を低下させることができるので、モニタ104に表示された動画像を閲覧すると、閲覧者は、カメラ1の移動速度Vが速くなると視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者に臨場感を与えることができる。
(2)処理対象領域設定部101dは、移動速度Vが速くなった場合に像を不鮮明にする領域を広くする。これにより、カメラ1の移動速度Vがより速くなる場面では、モニタ104に表示される画像における鮮明度を低下させる範囲が広がり、モニタ104に表示された動画像を閲覧すると、閲覧者は、より視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者にさらに臨場感を与えることができる。
(3)表示画像生成部101cは、移動速度Vが速くなった場合に像をより不鮮明にする。これにより、カメラ1の移動速度Vがより速くなる場面では、モニタ104に表示される画像における周辺部分の鮮明度がより低下するので、モニタ104に表示された動画像を閲覧すると、閲覧者は、より視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者にさらに臨場感を与えることができる。
(4)表示画像生成部101cは、動画像の中央の領域から離れるほど像をより不鮮明にする。これにより、モニタ104に表示された動画像を閲覧すると、閲覧者は、より視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者にさらに臨場感を与えることができる。
---第3の実施の形態---
 図9~図11を参照して、第3の実施の形態を説明する。以下の説明では、第1および第2の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1および第2の実施の形態と同じである。第3の実施の形態では、主に、動画像の画角をカメラ1の撮像時に変更する点が第1の実施の形態と異なる。
 上述した第1の実施の形態では、画角を変えずに撮像して得られた動画像を、再生時にカメラ1の移動速度が速くなる場面で画像を拡大して表示した。すなわち、第1の実施の形態では、再生時に画角を変更した。これに対し、第3の実施の形態では、撮像時に画角を変更する。すなわち、第3の実施の形態のカメラ1では、カメラ1の移動速度Vが速くなると撮像して得られた画像の一部だけを切り出し、切り出した画像を拡大して記録する。
 図9は、第3の実施の形態のカメラ1の構成示すブロック図である。カメラ1は、撮像光学系31と、撮像部33と、制御部34と、加速度センサ35と、表示部36と、操作部材37と、記録部38とを有する。
 撮像光学系31は、被写界からの光束を撮像部33へ導く。撮像光学系31には、不図示のレンズの他に絞り32が設けられている。撮像部33は、撮像素子33aおよび駆動部33bを含み、撮像光学系31によって結像された被写体の像を光電変換し、電荷を生成する。駆動部33bは、撮像素子33aに露光制御、すなわち電荷の蓄積制御を行わせるために必要な駆動信号を生成する。撮像部33に対する露光時間などの撮像指示は、制御部34から駆動部33bへ送信される。
 制御部34は、例えばCPUによって構成され、カメラ1による全体の動作を制御する。例えば、制御部34は、撮像部33で取得された光電変換信号に基づいて所定の露出演算を行い、適正露出に必要な撮像素子33aの電荷蓄積時間(露光時間)、ISO感度、絞り32の絞り値等の露出条件を決定して駆動部33bや絞り32へ指示する。
 制御部34には、露出演算部34aと、移動速度算出部34bと、画像処理部34cとが含まれる。これらは、制御部34が不図示の不揮発性メモリに格納されているプログラムを実行することにより、ソフトウェア的に実現されるが、これらをASIC等により構成しても構わない。
 露出演算部34aは、撮像素子33aからの画像信号に基づいて被写体の明るさを検出し、適正露出に必要な露光時間やISO感度や絞り値を決定する。
 移動速度算出部34bは、カメラ1の加速度の情報に基づいて、カメラ1の移動速度を算出する。
 画像処理部34cは、撮像部33によって取得された画像データに対する画像処理を行う。画像処理には、例えば、色補間処理、画素欠陥補正処理、輪郭強調処理、ノイズ低減(Noise reduction)処理、ホワイトバランス調整処理、ガンマ補正処理、表示輝度調整処理、彩度調整処理等が含まれる。さらに、画像処理部34cは、表示部36により表示する画像を生成する。画像処理部34cは、後で詳述する撮像時クロップ処理と、撮像時拡大処理とをさらに行うことができる。
 加速度センサ35は、カメラ1の加速度を検出し、検出結果を制御部34の移動速度算出部34bに出力し、移動速度算出部34bは、加速度センサ35が検出した加速度に基づきカメラ1の移動速度を算出する。
 表示部36は、画像処理部34cによって生成された画像や画像処理された画像、記録部38によって読み出された画像などを再生表示する。表示部36は、操作メニュー画面や、撮像条件を設定するための設定画面等の表示も行う。
 操作部材37は、レリーズボタンやメニューボタン等の種々の操作部材によって構成される。操作部材37は、各操作に対応する操作信号を制御部34へ送出する。操作部材37には、表示部36の表示面に設けられたタッチ操作部材も含まれる。
 記録部38は、制御部34からの指示に応じて、不図示のメモリカードなどで構成される記録媒体に画像データなどを記録する。また、記録部38は、制御部34からの指示に応じて記録媒体に記録されている画像データを読み出す。
 このように構成されるカメラ1では、静止画像や動画像を撮像し、撮像して得られた画像データを記録媒体に記録できる。また、このカメラ1は、図2に示すように移動する人物や物体に取り付けて動画像を撮像するのに適している。
---撮像時クロップ処理および撮像時拡大処理について---
 撮像時クロップ処理は、撮像して得られた画像の一部を切り出す処理である。以下の説明では、撮像時クロップ処理によって切り出す領域を撮像時クロップ領域と呼ぶ。たとえば、図3の画像50を例に挙げて説明すると、画像処理部34cは、画像50に対して、枠81で囲んだ範囲を撮像時クロップ領域に設定する。
 なお、撮像時クロップ領域の中心位置は、撮像して得られた画像の中心位置としてもよく、カメラ1の移動方向に基づいて求めた位置としてもよい。なお、後述する撮像時拡大処理の便宜上、撮像時クロップ領域は、撮像して得られる画像と同じアスペクト比を有する矩形形状であることが望ましい。
 画像処理部34cは、カメラ1の移動速度Vが第1の所定値V1以上であり、かつ、第2の所定値V2未満であれば、撮像して得られた画像に対して第1の撮像時クロップ領域を設定する。また、画像処理部34cは、カメラ1の移動速度Vが第2の所定値V2以上であれば、第1の撮像時クロップ領域よりも狭い第2の撮像時クロップ領域を設定する。
 撮像時拡大処理は、上述した撮像時クロップ処理によって切り出した撮像時クロップ領域の画像を、撮像時クロップ処理前の元の画像の大きさに拡大する処理である。
 画像処理部34cは、撮像して得られた画像の画像データに代えて、上述した撮像時クロップ処理および撮像時拡大処理によって得られた画像の画像データを記録用の画像データとして扱う。
 なお、画像処理部34cは、移動速度算出部34bで算出されたカメラ1の移動速度Vが第1の所定値V1未満であれば、上述した撮像時クロップ処理と、撮像時拡大処理とを行わず、撮像して得られた画像の画像データを記録用の画像データとして扱う。なお、撮像してクロップ処理をした画像については、記録時にはクロップにより生成した動画像の拡大処理を行わずに記録することとしてもよい。
 図10は、各フレームで撮像して得られる画像と、本実施の形態で得られる画像との関係を示す図である。
 時刻t31,t32では、カメラ1の移動速度Vが第1の所定値V1未満であるものとする。この場合、画像処理部34cは、時刻t31,t32から露光が開始される各フレームF31,F32において撮像して得られた画像531,532に対して上述した撮像時クロップ処理および撮像時拡大処理を行わない。画像処理部34cは、各フレームF31,F32において撮像して得られた画像531,532の画像データを記録用の画像データとして扱う。
 たとえば、時刻t32~時刻t33の間にカメラ1の移動速度Vが速くなり、たとえば第1の所定値V1以上となった場合について説明する。この場合、画像処理部34cは、時刻t33から露光が開始されるフレームF33において撮像して得られた画像533に対して上述した撮像時クロップ処理および撮像時拡大処理を行う。すなわち、画像処理部34cは、時刻t33から露光が開始されるフレームF33において撮像して得られた画像533に対して、撮像時クロップ領域833を設定し、設定した撮像時クロップ領域833を切り出す。図10に示した例では、画像処理部34cは、撮像時クロップ領域833の中心位置をカメラ1の移動方向に基づいて求めた位置に設定している。
 なお、画像処理部34cは、カメラ1の移動速度Vが第1の所定値V1以上であり、かつ、第2の所定値V2未満であれば、画像533に対して第1の撮像時クロップ領域を設定する。また、画像処理部34cは、カメラ1の移動速度Vが第2の所定値V2以上であれば、画像533に対して第2の撮像時クロップ領域を設定する。
 そして、画像処理部34cは、撮像時クロップ領域833の画像を撮像時クロップ処理前の元の画像533の大きさに拡大する処理を行い、画像733の画像データを得る。画像処理部34cは、画像733の画像データをフレームF33における記録用の画像データとして扱う。
 時刻t33~時刻t34の間において、カメラ1の移動速度Vがカメラ1の移動速度Vが第1の所定値V1以上であれば、画像処理部34cは、時刻t34から露光が開始されるフレームF34において撮像して得られた画像534に対しても上述した撮像時クロップ処理および撮像時拡大処理を行う。すなわち、画像処理部34cは、画像534に対して、撮像時クロップ領域834を設定し、設定した撮像時クロップ領域834を切り出す。そして、画像処理部34cは、撮像時クロップ領域834の画像を撮像時クロップ処理前の元の画像534の大きさに拡大する処理を行い、画像734の画像データを得る。画像処理部34cは、画像734の画像データをフレームF34における記録用の画像データとして扱う。
 このように、カメラ1の移動速度Vが速くなると記録される画像の範囲が狭くなるので、本実施の形態のカメラ1で撮像された動画像を閲覧すると、閲覧者は、カメラ1の移動速度Vが速くなると視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者に臨場感を与えることができる。
 図11は、第3の実施の形態のカメラ1の撮像に関する処理を示したフローチャートである。カメラ1の不図示の電源スイッチがオンされると、図11に示す処理が制御部34で実行される。ステップS111において、制御部34は、ユーザによってあらかじめ設定されたフレームレートの値を読み込むなどの初期設定を行ってステップS113へ進む。ステップS113において、制御部34は、レリーズボタンが操作されるなどして動画像の撮像開始が指示されるまで待機し、撮像開始が指示されると、初期設定された撮像条件で動画撮影を開始してステップS115へ進む。
 ステップS115において、制御部34の露出演算部34aは、撮像素子33aからの画像信号に基づいて被写体の明るさを検出し、適正露出を与える露光時間やISO感度や絞り値を決定し、ステップS117へ進む。ステップS117において、制御部34の移動速度算出部34bは、加速度センサ35で検出されたカメラ1の加速度の情報に基づいて、カメラ1の移動速度を算出してステップS118へ進む。
 ステップS118において、制御部34は、ステップS115で算出した露光時間やISO感度や絞り値で撮像するように撮像部33および絞り32を制御してステップS119へ進む。ステップS119において、制御部34の撮像制御部34cは、ステップS117で算出されたカメラ1の移動速度Vが第1の所定値V1未満であるか否かを判断する。ステップS119が肯定判断されるとステップS135へ進む。ステップS135以降の処理については、後で説明する。
 ステップS117で算出されたカメラ1の移動速度Vが第1の所定値V1以上であればステップS119が否定判断されてステップS123へ進む。ステップS123において、制御部34の撮像制御部34cは、ステップS117で算出されたカメラ1の移動速度Vが第2の所定値V2以上であるか否かを判断する。
 ステップS117で算出されたカメラ1の移動速度Vが第2の所定値V2未満であればステップS123が否定判断されてステップS171へ進み、制御部34の画像処理部34cは、上述したように第1の撮像時クロップ領域を切り出す撮像時クロップ処理を行ってステップS175へ進む。
 ステップS117で算出されたカメラ1の移動速度Vが第2の所定値V2以上であればステップS123が肯定判断されてステップS173へ進み、制御部34の画像処理部34cは、上述したように第2の撮像時クロップ領域を切り出す撮像時クロップ処理を行ってステップS175へ進む。
 ステップS175において、制御部34の画像処理部34cは、ステップS171またはステップS173の撮像時クロップ処理で切り出された撮像時クロップ領域の画像に対して上述した撮像時拡大処理を行ってステップS135へ進む。
 ステップS135において、制御部34は、動画像の撮像の終了が指示されたか否かを判断する。ステップS35が否定判断されるとステップS115へ戻り、ステップS135が肯定判断されるとステップS137へ進む。
 ステップS137において、制御部34は、不図示の電源スイッチがオフされたか否かを判断する。ステップS137が否定判断されるとステップS113へ戻り、ステップS137が肯定判断されると本プログラムを終了する。
 第3の実施の形態のカメラ1では、上述した各実施の形態の作用効果に加えて次の作用効果を奏する。
(1)カメラ1は、撮像素子33aが生成した信号に画像処理を行う画像処理部34cをさらに備える。画像処理部34cは、加速度センサ35および移動速度算出部34bで検出された移動速度Vが速くなった場合に撮像して得られた画像の一部だけを切り出し、切り出した画像を拡大する。記録部38は、画像処理部34cが拡大した画像を記録する。
 本実施の形態のカメラ1で撮像された動画像を閲覧すると、閲覧者は、カメラ1の移動速度Vが速くなると視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者に臨場感を与えることができる。
---第4の実施の形態---
 図12を参照して、撮像装置の第4の実施の形態を説明する。以下の説明では、第1から第3の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1から第3の実施の形態と同じである。第4の実施の形態では、主に、カメラ1の移動速度Vが速くなると、動画像の画角を変更する代わりに、画像の周辺部分の像の鮮明度を下げる点が第3の実施の形態と異なる。換言すると、第4の実施の形態では、撮像時に画像の周辺部分の像の鮮明度を低下させて記録する点が、第2の実施の形態と異なる。
 上述したように、一般的に、人間の視野は、その人間の移動速度が速くなるほど狭くなる傾向にある。そこで、第4の実施の形態のカメラ1では、カメラ1の移動速度Vが速くなると動画像の閲覧者に動画像の範囲が狭まったように感じさせるために、カメラ1の移動速度Vが速くなると撮像して得られた画像の周辺部分の鮮明度を低下させて記録する。
 第4の実施の形態のカメラ1の構成は、図9に示した第3の実施の形態のカメラ1の構成と同じである。なお、第4の実施の形態のカメラ1では、制御部34の画像処理部34cは、撮像時クロップ処理および撮像時拡大処理に代えて、画像の周辺部分の鮮明度を低下させる撮像時鮮明度低下処理を行うことができる。以下、撮像時鮮明度低下処理について説明する。
 本実施の形態において、撮像時鮮明度低下処理は、撮像して得られた画像の周辺側の領域に対して、以下の(a)から(d)に挙げた処理の少なくとも1つを行う処理である。
(a)像をぼかす。すなわち像の輪郭を不鮮明にする。
(b)コントラストを低下させる。
(c)彩度を低下させる。
(d)明度を低下させる。
 なお、第2の実施の形態と同様に、ブラーを付加する処理を行ってもよい。
 以下の説明では、撮像時鮮明度低下処理を行う領域を撮像時処理対象領域と呼び、撮像時鮮明度低下処理を行わない領域を撮像時非対象領域と呼ぶ。撮像時処理対象領域は、第2の実施の形態における処理対象領域83に相当し(図7参照)、撮像時非対象領域は、第2の実施の形態における非対象領域84に相当する。画像処理部34cは、撮像して得られた画像に対して、撮像時処理対象領域を設定する。
 なお、撮像時非対象領域の中心位置は、撮像して得られた画像の中心位置としてもよく、カメラ1の移動方向に基づいて求めた位置としてもよい。また、撮像時非対象領域の形状は、第2の実施の形態の非対象領域84と同様に楕円形であってもよく、円形であってもよく、矩形であってもよく、直線や曲線で構成される閉じた形状であってもよい。
 画像処理部34cは、カメラ1の移動速度Vが第1の所定値V1以上であり、かつ、第2の所定値V2未満であれば、撮像して得られた画像に対して第1の撮像時処理対象領域を設定する。また、画像処理部34cは、カメラ1の移動速度Vが第2の所定値V2以上であれば、第1の撮像時処理対象領域よりも広い第2の撮像時処理対象領域を設定する。すなわち、画像処理部34cは、カメラ1の移動速度Vが速くなるほど撮像時処理対象領域が広くなるように、換言すると撮像時非対象領域が狭くなるように、撮像時処理対象領域を設定する。そして、画像処理部34cは、設定した撮像時処理対象領域に対して、上述した撮像時鮮明度低下処理を行う。
 なお、画像処理部34cは、撮像時処理対象領域の全体が同程度に不鮮明となるように撮像時鮮明度低下処理を行ってもよく、撮像時非対象領域から離れるにつれてより不鮮明となるように撮像時鮮明度低下処理を行ってもよい。具体的には、画像処理部34bは、非対象領域から離れるにつれて像をぼかす程度を大きくする。また、例えば、画像処理部34bは、非対象領域から離れるにつれてコントラスト、彩度あるいは明度の少なくともいずれかを低下させてもよい。これらのぼかし、コントラストの低下、彩度の低下、明度の低下は、いずれか一つのみを行ってもよく、2つ以上の画像処理を合わせて行ってもよい。
 画像処理部34cは、撮像して得られた画像の画像データに代えて、上述した撮像時鮮明度低下処理を施した画像の画像データを記録用の画像データとして扱う。
 なお、画像処理部34cは、移動速度算出部34bで算出されたカメラ1の移動速度Vが第1の所定値V1未満であれば、上述した撮像時鮮明度低下処理を行わず、撮像して得られた画像の画像データを記録用の画像データとして扱う。
 このように、カメラ1の移動速度Vが速くなると記録される画像の周辺部分の鮮明度が低下するので、本実施の形態のカメラ1で撮像された動画像を閲覧すると、閲覧者は、カメラ1の移動速度Vが速くなると視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者に臨場感を与えることができる。
 図12は、第4の実施の形態のカメラ1の撮像に関する処理を示したフローチャートである。カメラ1の不図示の電源スイッチがオンされると、図12に示す処理が制御部34で実行される。ステップS111からステップS123までは、図11に示した第3の実施の形態と同じである。
 ステップS123において、制御部34の撮像制御部34cは、ステップS117で算出されたカメラ1の移動速度Vが第2の所定値V2以上であるか否かを判断する。
 ステップS117で算出されたカメラ1の移動速度Vが第2の所定値V2未満であればステップS123が否定判断されてステップS181へ進み、制御部34の画像処理部34cは、上述したように第1の撮像時処理対象領域を設定し、撮像時鮮明度低下処理を行ってステップS135へ進む。
 ステップS117で算出されたカメラ1の移動速度Vが第2の所定値V2以上であればステップS123が肯定判断されてステップS183へ進み、制御部34の画像処理部34cは、上述したように第2の撮像時処理対象領域を設定し、撮像時鮮明度低下処理を行ってステップS135へ進む。
 第4の実施の形態のカメラ1では、上述した各実施の形態の作用効果に加えて次の作用効果を奏する。
(1)カメラ1は、撮像素子33aが生成した信号に画像処理を行う画像処理部34cを備える。画像処理部34cは、加速度センサ35および移動速度算出部34bで検出された移動速度Vが速くなった場合に撮像して得られた画像の周辺部分の鮮明度を低下させる撮像時鮮明度低下処理を行う。記録部38は、撮像時鮮明度低下処理が行われた画像を記録する。
 本実施の形態のカメラ1で撮像された動画像を閲覧すると、閲覧者は、カメラ1の移動速度Vが速くなると視野が狭まったように感じる。これにより、速度感が薄れてしまうことを抑制でき、動画像の閲覧者に臨場感を与えることができる。
 なお、第4の実施の形態のカメラ1において、撮像部33として、撮像素子33aにおける撮像面の全域において同じ条件で撮像したり、撮像素子33aにおける撮像面の領域ごとに異なる条件で撮像したりすることができるものを用いてもよい。この場合、たとえば、撮像時処理対象領域に相当する撮像面の領域と、撮像時非対象領域に相当する撮像面の領域とで、異なる撮像条件を設定してもよい。以下の説明では、撮像時処理対象領域に相当する撮像面の領域を第1領域と呼び、撮像時非対象領域に相当する撮像面の領域を第2領域と呼ぶ。
 たとえば、制御部34は、第1領域の感度を第2領域の感度よりも低く設定してもよい。これにより、撮像時処理対象領域の画像が撮像時非対象領域の画像よりも明度が低下するので、上述した撮像時鮮明度低下処理を行った場合と同様の作用効果が得られる。
 たとえば、制御部34は、第1領域の露光時間を第2領域の露光時間よりも長く設定し、領域によって露光時間が違っても適正露出となるように第1領域の感度を第2領域の感度よりも低く設定してもよい。これにより、撮像時処理対象領域の画像の像ブレの量が撮像時非対象領域の画像の像ブレの量よりも多くなるので、第2の実施の形態のようにブラーを付加した場合と同様の作用効果が得られる。
 たとえば、制御部34は、第1領域のフレームレートを第2領域のフレームレートよりも下げる。これにより、第1領域の露光時間を第2領域の露光時間よりもさらに長く設定できるので、第2の実施の形態のようにブラーを付加した場合の作用効果をより一層高めることができる。
 次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)上述した第1および第2の実施の形態では、カメラ1の移動速度が速くなる場面では、自動的にクロップ処理や拡大処理等が行われた。これに対して変形例1では、動画像の再生時にクロップ処理や拡大処理等が行われるか否か等をユーザが再生モードを選択することで設定できる。
 変形例1の画像表示装置100では、たとえば、通常モードと、第1臨場感モードと、第2臨場感モードと、早送りモードの4つの再生モードのいずれかを設定可能である。ユーザは、たとえば入力部材106を操作することにより、4つの再生モードのいずれかを設定できる。
 再生モードが通常モードに設定されると、制御回路101は、動画像の再生時にクロップ処理や拡大処理や領域設定処理や鮮明度低下処理を行わない。したがって、再生モードが通常モードに設定された場合、記憶装置102に記録されている画像ファイルの動画像がそのまま再生されてモニタ104に表示される。通常モードは、ユーザが動画像を広角のままで閲覧したいと望んでいる場合に適した再生モードである。
 再生モードが第1臨場感モードに設定されると、制御回路101は、第1の実施の形態と同様に、動画像の再生時にクロップ処理および拡大処理を行なう。第1臨場感モードは、ユーザが動画像の臨場感をより感じたいと望んでいる場合に適した再生モードである。
 再生モードが第2臨場感モードに設定されると、制御回路101は、第2の実施の形態と同様に、動画像の再生時に領域設定処理および鮮明度低下処理を行なう。第2臨場感モードは、モニタ104に表示される画像の範囲を狭めることなく動画像の臨場感をより感じたいとユーザが望んでいる場合に適した再生モードである。
 再生モードが早送りモードに設定されると、制御回路101は、動画像の再生時に、通常の再生速度よりも速い再生速度で動画像を再生する。なお、再生速度が速すぎると臨場感が薄れてしまうため、早送りモードにおける再生速度は、通常の再生速度のたとえば1.1倍から1.3倍程度に設定されることが望ましい。早送りモードは、第1臨場感モードや第2臨場感モードと同様に、ユーザが動画像の臨場感をより感じたいと望んでいる場合に適した再生モードである。
(変形例2)上述した第1および第2の実施の形態では、画像表示装置100をパーソナルコンピュータ等により構成したが、スマートフォンのようにカメラ機能を備えた高機能携帯電話機250(図13)や、タブレット端末などのモバイル機器によって構成してもよい。
 上述した高機能携帯電話機250、またはタブレット端末などのモバイル機器への上述した各実施の形態のプログラムの供給は、たとえば図13に例示するように、プログラムを格納した画像表示装置(パーソナルコンピュータ)100から赤外線通信や近距離無線通信によってモバイル機器へ送信することができる。
 パーソナルコンピュータ100に対するプログラムの供給は、プログラムを格納したCD-ROMなどの記録媒体204をパーソナルコンピュータ100にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ100へローディングしてもよい。通信回線201を経由する場合は、当該通信回線に接続されたサーバー202のストレージ装置203などにプログラムを格納しておく。
 また、通信回線201に接続された無線LANのアクセスポイント(不図示)を経由して、モバイル機器へプログラムを直接送信することもできる。さらに、プログラムを格納したメモリカードなどの記録媒体204Bをモバイル機器にセットしてもよい。このように、プログラムは記録媒体や通信回線を介する提供など、種々の形態のコンピュータプログラム製品として供給できる。
(変形例3および変形例4)上述した第1および第2の実施の形態では、動画像の再生時にクロップ処理や拡大処理等が行われている。変形例3では、画像ファイルの編集時にクロップ処理や拡大処理等が行われる。
 変形例3の画像表示装置100では、記憶装置102に記録されている動画像の画像ファイルを読み込んで、第1の実施の形態と同様にクロップ処理や拡大処理を行って新たな画像ファイルを生成する。すなわち、たとえば、図4に示したフレームF1やフレームF2の画像501,502は変更されずに新たな画像ファイルに記録されるが、フレームF3やフレームF4では、元の画像503,504に代えて、クロップ処理および拡大処理が行われた後の画像703,704が新たな画像ファイルに記録される。
 このようにして、生成された新たな画像ファイルでは、動画像の再生時にクロップ処理や拡大処理等を行わなくても、カメラ1の移動速度Vが速くなる場面では画像の一部が拡大されてモニタ104に表示される。
 同様に、変形例4の画像表示装置100では、記憶装置102に記録されている動画像の画像ファイルを読み込んで、第2の実施の形態と同様に領域設定処理や鮮明度低下処理を行って新たな画像ファイルを生成する。このようにして、生成された新たな画像ファイルでは、動画像の再生時に領域設定処理や鮮明度低下処理等を行わなくても、カメラ1の移動速度Vが速くなる場面では周辺部分の鮮明度が低下した画像がモニタ104に表示される。
(変形例5)上述した第1および第2の実施の形態では、画像ファイルには、動画像の各フレームを撮像した時の撮像装置の移動速度の情報が含まれていた。しかし、画像ファイルに撮像装置の移動速度の情報が含まれてなくても、撮像地点の位置情報が含まれていれば、位置情報の変化から撮像装置の移動速度を求めるようにしてもよい。
 また、画像ファイルに撮像装置の移動速度の情報が含まれてなくても、動画像の中で被写体が動く速さからカメラの移動速度を推定してもよい。
(変形例6)上述した第1および第2の実施の形態における各処理によって、動画像の閲覧者が感じる速度感が向上するが、速度感の向上度合いをユーザが設定できるようにしてもよい。たとえば、図14に示すように、速度感の向上度合いをユーザが設定するための設定表示85を制御回路101がモニタ104の表示画面104aに表示させるようにしてもよい。そして、たとえばユーザによって入力部材106が操作されて設定表示85のスライダ85aが左右方向に動かされると、上述した各実施の形態における各処理による速度感の向上度合いが変更されるようにしてもよい。たとえば、第1の実施の形態では、スライダ85aの位置に応じて、クロップ処理における第1および第2のクロップ領域の大きさが変わるようにしてもよい。より具体的には、スライダ85aの位置が右に移動するにつれてクロップ領域を狭くすることとしてもよい。たとえば、第2の実施の形態では、スライダ85aの位置に応じて、処理対象領域の広さや鮮明度低下処理における鮮明度の低下度合いが変わるようにしてもよい。より具体的には、スライダ85aの位置が右に移動するにつれて対象領域の鮮明度を低下させることとしてもよい。
 また、たとえば、スキーやスノーボードなどのスポーツのように、撮影者が移動するスポーツでは、撮影者の移動速度が同じであっても、そのスポーツに対する撮影者の習熟度により撮影者自身が感じる速度感が異なる。この撮影者自身が感じる速度感が動画像の閲覧者に伝わるように、撮影者の習熟度に応じてユーザが速度感の向上度合いを設定できるようにしてもよい。たとえば、図15に示すように、カメラ1とともに移動する撮影者の習熟度をパラメータとした設定表示86を制御回路101がモニタ104の表示画面104aに表示させるようにしてもよい。この設定表示86は、スポーツの種類によって異なる複数の表示形態を表示可能としておくことが望ましい。図15には、ユーザによって選択されたスポーツがスキー、スノーボードである場合の設定表示86の一例を示す。図15に示す表示画面104aには、ユーザによって選択されたスポーツがスキー、スノーボードであることを表す表示86aと、習熟度合いの選択表示86bとが表示される。
 たとえばユーザによって入力部材106が操作されて選択表示86bの「初級」、「中級」、「プロ級」のいずれかが選択されると、選択内容に応じて上述した各実施の形態における各処理による速度感の向上度合いが変更されるようにしてもよい。
 なお、第3および第4の実施の形態においても、上述したように速度感の向上度合いをユーザが設定できるようにしてもよい。
 上述した第1の実施の形態から第4の実施の形態では、速度情報として、カメラ1の移動速度を例として説明したが、速度情報はカメラ1の移動速度に限られない。例えば、速度情報は、カメラ1と特定の対象物との距離の情報であってもよい。これは、カメラ1の速度が速くなると、特定の対象物までの距離の変化量が変わるためである。具体的には、カメラ1は、カメラ1と特定対象物との距離の変化の大きさ(変化量、変化率)に基づいて、クロップ領域を変更する。
 このような例では、制御回路101が、撮影時のカメラ1から特定の対象物までの距離情報を取得する。距離情報は、例えば、デフォーカス量から取得(算出)してもよく、TOFセンサの出力から算出してもよい。これらの情報は、撮影時に取得して記録しておくこととしてもよい。
 なお、TOFセンサは、公知のTOF(time of flight)法に用いるイメージセンサである。TOF法は、不図示の光源部から被写体に向けて光パルス(照射光)を発し、被写体で反射された光パルスがTOFセンサへ戻ってくるまでの時間に基づいて、被写体までの距離を検出する技術である。制御部34は、検出した被写体までの距離の変化に基づいて被写体とカメラ1との相対速度を算出し、算出した相対速度をカメラ1の移動速度Vとする。なお、撮像素子33aをTOFセンサに利用してもよい。
 制御回路101は、取得した距離情報から距離の変化量K(または変化率)を算出する。表示範囲設定部101bは、第1のタイミングで算出した単位時間あたりの距離の変化量K(または変化率)が第1の所定値K1未満であればクロップ領域を変更しない。しかし、制御回路101で算出された距離の変化量K(または変化率)が第1の所定値K1以上であれば、表示範囲設定部101bは、クロップ領域を狭くなるようにする。
 詳述すると、表示範囲設定部101bは、距離の変化量Kが第1の所定値K1以上であり、かつ、第2の所定値K2未満(K1<K2)であるフレームについては、そのフレームの画像に対して第1のクロップ領域を設定する。また、表示範囲設定部101bは、距離の変化量K(または変化率)が第2の所定値K2以上であるフレームについては、そのフレームの画像に対して第1のクロップ領域よりも狭い第2のクロップ領域を設定する。
 なお、距離の変化量K(または変化率)に応じて2段階でクロップ領域を変更することは、一例であり、1段階であってもよく、3段階以上であってもよい。また、上述したようにクロップ領域を距離の変化の大きさに応じて段階的に長くするのではなく、距離の変化量K(または変化率)に応じて連続的にクロップ領域を変更するようにしてもよい。具体的には、距離の変化量K(または変化率)が大きくなるほど、クロップ領域を狭くすることとしてもよい。例えば、初期設定では、クロップ領域を設定せず(例えば全画角表示)、距離の変化量K(または変化率)が大きくなるほど、クロップ領域を狭くすることとしてもよい。
 上述した第1の実施の形態から第4の実施の形態では、速度情報として、カメラ1の移動速度を例として説明したが、速度情報はカメラ1の移動速度に限られない。例えば、速度情報は、特定の対象物の大きさの情報であってもよい。これは、カメラ1の速度が速くなると、特定の対象物の大きさの変化量が変わるためである。具体的には、カメラ1は、特定対象物の大きさの変化の大きさ(変化量、変化率)に基づいて、クロップ領域を狭くなるようにする。
 このような例では、制御回路101が、撮影された特定の対象物の大きさの情報を取得する。大きさの情報は、被写体認識(物体認識)の技術やエッジの抽出技術を用いて行えばよい。表示範囲設定部101bは、取得した特定の被写体の大きさの情報から大きさの変化量M(または変化率)を算出する。表示範囲設定部101bは、第1のタイミングで算出した単位時間あたりの大きさの変化量M(または変化率)が第1の所定値M1未満であればクロップ領域を変更しない。しかし、表示回路101で算出された大きさの変化量M(または変化率)が第1の所定値M1以上であれば、表示範囲設定部101bは、クロップ領域を狭くなるようにする。
 詳述すると、表示範囲設定部101bは、大きさの変化量Mが第1の所定値M1以上であり、かつ、第2の所定値M2未満(M1<M2)であるフレームについては、そのフレームの画像に対して第1のクロップ領域を設定する。また、表示範囲設定部101bは、大きさの変化量M(または変化率)が第2の所定値M2以上であるフレームについては、そのフレームの画像に対して第1のクロップ領域よりも狭い第2のクロップ領域を設定する。なお、大きさの変化量M(または変化率)に応じて2段階でクロップ領域を変更することは、一例であり、1段階であってもよく、3段階以上であってもよい。また、上述したようにクロップ領域を大きさの変化量Mに応じて段階的に長くするのではなく、大きさの変化量M(または変化率)に応じて連続的にクロップ領域を変更するようにしてもよい。具体的には、大きさの変化量M(または変化率)が大きくなるほど、露光時間を長くすることとしてもよい。例えば、初期設定では、クロップ領域を設定せず(例えば全画角表示)、大きさの変化量M(または変化率)が大きくなるほど、クロップ領域を狭くすることとしてもよい。
 上述した第1の実施の形態から第4の実施の形態では、速度情報として、カメラ1の移動速度を例として説明したが、速度情報はカメラ1の移動速度に限られない。例えば、速度情報は、音の大きさであってもよい。これはカメラ1の速度が速くなるほど、取得する音の大きさ(特に風切音の大きさ)が大きくなるためである。具体的には、カメラ1は、撮影時に取得した音の大きさに基づいて、クロップ領域を狭くする。
 このような例では、制御回路101が、撮影時の音の大きさの情報を取得する。音の大きさの情報は、撮影して記録された音の解析を行えばよい。また、制御回路101は、風切音に対応する特定の周波数帯域の音の大きさの情報を取得することとしてもよい。制御回路101は取得した音の大きさの情報から音の大きさSを算出する。表示範囲設定部101bは、音の大きさSが第1の所定値S1未満であればクロップ領域を変更しない。しかし、音の大きさSが第1の所定値S1以上であれば、表示範囲設定部101bは、クロップ領域を狭くなるようにする。
 詳述すると、表示範囲設定部101bは、音の大きさSが第1の所定値S1以上であり、かつ、第2の所定値S2未満(S1<S2)であるフレームについては、そのフレームの画像に対して第1のクロップ領域を設定する。また、表示範囲設定部101bは、音の大きさSが第2の所定値S2以上であるフレームについては、そのフレームの画像に対して第1のクロップ領域よりも狭い第2のクロップ領域を設定する。なお、音の大きさSに応じて2段階でクロップ領域を変更することは、一例であり、1段階であってもよく、3段階以上であってもよい。また、上述したようにクロップ領域を音の大きさSに応じて段階的に長くするのではなく、音の大きさSに応じて連続的にクロップ領域を変更するようにしてもよい。具体的には、音の大きさSが大きくなるほど、クロップ領域を狭くすることとしてもよい。例えば、初期設定では、クロップ領域を設定せず(例えば全画角表示)、音の大きさSが大きくなるほど、クロップ領域を狭くすることとしてもよい。
 また、上記の第1の実施の形態から第4の実施の形態では、移動速度V、距離の変化量K(変化率)、大きさの変化量M(変化率)、音の大きさSに基づいて、クロップ領域を狭くする例を説明したが、当然、移動速度Vが相対的に遅くなった場合(距離の変化量Kが小さくなった場合、大きさの変化量が小さくなった場合、音の大きさが小さくなった場合)は、クロップ領域を相対的に広くすることとすればよい。
 次に、第2の実施の形態と第4の実施の形態で説明した鮮明度を下げる処理対象領域の設定の別の例について説明する。上述した第1の実施の形態から第4の実施の形態では、速度情報として、カメラ1の移動速度を例として説明したが、画像の周辺部分の鮮明度を下げる処理を説明したが、速度情報はカメラ1の移動速度に限られない。例えば、速度情報は、カメラ1と特定の対象物との距離の情報であってもよい。具体的には、カメラ1は、カメラ1と特定対象物との距離の変化の大きさ(変化量、変化率)に基づいて、処理対象領域を変更する。
 制御回路101Aは、取得した距離情報から距離の変化量K(または変化率)を算出する。処理対象領域設定部101dは、第1のタイミングで算出した単位時間あたりの距離の変化量K(または変化率)が第1の所定値K1未満であれば処理対象領域を変更しない。しかし、制御回路101bで算出された距離の変化量K(または変化率)が第1の所定値K1以上であれば、処理対象領域設定部101dは、処理対象領域を広くなるようにする。
 詳述すると、処理対象領域設定部101dは、距離の変化量Kが第1の所定値K1以上であり、かつ、第2の所定値K2未満(K1<K2)であるフレームについては、そのフレームの画像に対して第1の処理対象領域を設定する。また処理対象領域設定部101dは、距離の変化量K(または変化率)が第2の所定値K2以上であるフレームについては、そのフレームの画像に対して第1の処理対象領域よりも広い第2の処理対象領域を設定する。
 なお、距離の変化量K(または変化率)に応じて2段階でクロップ領域を変更することは、一例であり、1段階であってもよく、3段階以上であってもよい。また、上述したように処理対象領域を距離の変化の大きさに応じて段階的に長くするのではなく、距離の変化量K(または変化率)に応じて連続的に処理対象領域を変更するようにしてもよい。具体的には、距離の変化量K(または変化率)が大きくなるほど、処理対象領域を広くすることとしてもよい。例えば、初期設定では、処理対象領域を設定せず(例えば全画角表示)、距離の変化量K(または変化率)が大きくなるほど、処理対象領域を広くすることとしてもよい。
 上述した第2の実施の形態では、速度情報として、カメラ1の移動速度を例として説明したが、速度情報はカメラ1の移動速度に限られない。例えば、速度情報は、特定の対象物の大きさの情報であってもよい。具体的には、カメラ1は、特定対象物の大きさの変化の大きさ(変化量、変化率)に基づいて、処理対象領域を広くなるようにする。
 このような例では、制御回路101Aが、撮影された特定の対象物の大きさの情報を取得する。処理対象領域設定部101dは、第1のタイミングで算出した単位時間あたりの大きさの変化量M(または変化率)が第1の所定値M1未満であれば処理対象領域を変更しない。しかし、制御回路101Aで算出された大きさの変化量M(または変化率)が第1の所定値M1以上であれば、処理対象領域設定部101dは、処理対象領域を広くなるようにする。
 詳述すると、処理対象領域設定部101dは、大きさの変化量Mが第1の所定値M1以上であり、かつ、第2の所定値M2未満(M1<M2)であるフレームについては、そのフレームの画像に対して第1の処理対象領域を設定する。また、処理対象領域設定部101dは、大きさの変化量M(または変化率)が第2の所定値M2以上であるフレームについては、そのフレームの画像に対して第1の処理対象領域よりも広い第2の処理対象領域を設定する。なお、大きさの変化量M(または変化率)に応じて2段階で処理対象領域を変更することは、一例であり、1段階であってもよく、3段階以上であってもよい。また、上述したように処理対象領域を大きさの変化量Mに応じて段階的に長くするのではなく、大きさの変化量M(または変化率)に応じて連続的に処理対象領域を変更するようにしてもよい。具体的には、大きさの変化量M(または変化率)が大きくなるほど、処理対象領域を広くすることとしてもよい。例えば、初期設定では、処理対象領域を設定せず(例えば全画角表示)、大きさの変化量M(または変化率)が大きくなるほど、処理対象領域を広くすることとしてもよい。
 上述した第2の実施の形態では、速度情報として、カメラ1の移動速度を例として説明したが、速度情報はカメラ1の移動速度に限られない。例えば、速度情報は、音の大きさであってもよい。具体的には、カメラ1は、撮影時に取得した音の大きさに基づいて、処理対象領域を広くする。
 このような例では、制御回路101Aが、撮影時の音の大きさの情報を取得する。音の大きさの情報は、撮影して記録された音の解析を行えばよい。また、制御回路101Aは、風切音に対応する特定の周波数帯域の音の大きさの情報を取得することとしてもよい。制御回路101Aは取得した音の大きさの情報から音の大きさSを算出する。処理対象領域設定部101dは、音の大きさSが第1の所定値S1未満であれば処理対象領域を変更しない。しかし、音の大きさSが第1の所定値S1以上であれば、処理対象領域設定部101dは、処理対象領域を広くなるようにする。
 詳述すると、処理対象領域設定部101dは、音の大きさSが第1の所定値S1以上であり、かつ、第2の所定値S2未満(S1<S2)であるフレームについては、そのフレームの画像に対して第1の処理対象領域を設定する。また、処理対象領域設定部101dは、音の大きさSが第2の所定値S2以上であるフレームについては、そのフレームの画像に対して第1の処理対象領域よりも広い第2の処理対象領域を設定する。なお、音の大きさSに応じて2段階で処理対象領域を変更することは、一例であり、1段階であってもよく、3段階以上であってもよい。また、上述したように処理対象領域を音の大きさSに応じて段階的に広くするのではなく、音の大きさSに応じて連続的に処理対象領域を変更するようにしてもよい。具体的には、音の大きさSが大きくなるほど、処理対象領域を広くすることとしてもよい。例えば、初期設定では、処理対象領域を設定せず(例えば全画角表示)、音の大きさSが大きくなるほど、処理対象領域を狭くすることとしてもよい。
 また、上記の第2の実施の形態では、移動速度V、距離の変化量K(変化率)、大きさの変化量M(変化率)、音の大きさSに基づいて、処理対象領域を広くする例を説明したが、当然、移動速度Vが相対的に遅くなった場合(距離の変化量Kが小さくなった場合、大きさの変化量が小さくなった場合、音の大きさが小さくなった場合)は、処理対象領域を相対的に狭くすることとすればよい。
 上述した実施の形態および変形例は、以下のような表示装置も含む。
(1)撮像装置によって生成された動画像データと、上記動画像データを生成している間の上記撮像装置の速度情報を取得する取得部と、上記取得部で取得した速度情報に基づいて、上記動画像データを用いて表示部に表示させる動画像に対して処理する領域を制御する表示制御部と、を備える表示装置。
(2)(1)のような表示装置において、上記取得部は上記撮像装置の移動速度の情報を取得し、上記表示制御部は、上記取得部が取得した移動速度の情報に基づいて上記動画像を処理する領域を制御する。
(3)(2)のような表示装置において、上記表示制御部は、上記移動速度が大きくなるにつれて、上記表示部に表示させる上記動画像の領域を狭くする。
(4)(3)のような表示装置において、上記表示制御部は、上記移動速度が第1移動速度よりも速い第2移動速度になると、上記表示部に上記動画像の第1の領域よりも狭い第2の領域を表示させる。
(5)(2)のような表示装置において、上記動画像の一部の領域に画像処理を行う画像処理部を備え、上記画像処理部は、上記移動速度が大きくなるについて、画像処理を行う領域を大きくし、上記表示制御部は、上記画像処理部によって一部の領域に画像処理が行われた動画像を表示させる。
(6)(5)のような表示装置において、上記画像処理部は、上記撮像装置の移動速度が第1移動速度よりも速い第2移動速度になると、上記動画像の領域のうちの第1の領域のよりも広い第2の領域に画像処理に画像処理を行う。
(7)(2)のような表示装置において、上記表示制御部は、上記移動速度の情報に基づいて上記動画像の特定の被写体にブレを付加した画像を表示させる。
(8)(1)のような表示装置において、上記取得部は上記撮像装置と特定の対象物までの距離情報を取得し、上記表示制御部は、上記取得部が取得した距離情報による距離の変化の大きさ基づいて上記動画像を処理する領域を制御する。
(9)(8)のような表示装置において、上記表示制御部は、上記距離の変化が大きくなるにつれて、上記表示部に表示させる上記動画像の領域を狭くする。
(10)(9)のような表示装置において、上記表示制御部は、上記距離の変化の大きさが、第1の大きさよりも第2の大きさになると上記動画像の第1の領域よりも狭い第2の領域を表示させる。
(11)(8)のような表示装置において、上記動画像の一部の領域に画像処理を行う画像処理部を備え、上記画像処理部は、上記距離の変化が大きくなるについて、画像処理を行う領域を大きくし、上記表示制御部は、上記画像処理部によって一部の領域に画像処理が行われた動画像を表示させる。
(12)(11)のような表示装置において、上記画像処理部は、上記距離の変化の大きさが第1の大きさよりも大きい第2の大きさになると、上記動画像の領域のうちの第1の領域のよりも広い第2の領域に画像処理に画像処理を行う。
(13)(8)のような表示装置において、上記表示制御部は、上記距離の変化の大きさに基づいて上記動画像の特定の被写体にブレを付加した画像を表示させる。
(14)(1)のような表示装置において、上記取得部は特定の対象物の大きさの情報を取得し、上記表示制御部は、上記取得部が取得した大きさの変化の大きさ基づいて上記動画像を処理する領域を制御する。
(15)(14)のような表示装置において、上記表示制御部は、上記大きさの変化が大きくなるにつれて、上記表示部に表示させる上記動画像の領域を狭くする。
(16)(15)のような表示装置において、上記表示制御部は、上記大きさの変化の大きさが、第1の大きさよりも第2の大きさになると上記動画像の第1の領域よりも狭い第2の領域を表示させる。
(17)(14)のような表示装置において、上記動画像の一部の領域に画像処理を行う画像処理部を備え、上記画像処理部は、上記大きさの変化が大きくなるについて、画像処理を行う領域を大きくし、上記表示制御部は、上記画像処理部によって一部の領域に画像処理が行われた動画像を表示させる。
(18)(17)のような表示装置において、上記画像処理部は、上記大きさの変化が第1の大きさよりも大きい第2の大きさになると、上記動画像の領域のうちの第1の領域のよりも広い第2の領域に画像処理に画像処理を行う。
(19)(14)のような表示装置において、上記表示制御部は、上記大きさの変化に基づいて上記動画像の特定の被写体にブレを付加した画像を表示させる。
(20)(1)のような表示装置において、上記取得部は音の情報を取得し、上記表示制御部は、上記音の大きさに基づいて上記動画像を処理する領域を制御する。
(21)(20)のような表示装置において、上記表示制御部は、上記音の大きさが大きくなるにつれて、上記表示部に表示させる上記動画像の領域を狭くする。
(22)(21)のような表示装置において、上記表示制御部は、上記音の大きさが、第1の大きさよりも第2の大きさになると上記動画像の第1の領域よりも狭い第2の領域を表示させる。
(23)(20)のような表示装置において、上記動画像の一部の領域に画像処理を行う画像処理部を備え、上記画像処理部は、上記音の大きさが大きくなるについて、画像処理を行う領域を大きくし、上記表示制御部は、上記画像処理部によって一部の領域に画像処理が行われた動画像を表示させる。
(24)(23)のような表示装置において、上記画像処理部は、上記音の大きさが第1の大きさよりも大きい第2の大きさになると、上記動画像の領域のうちの第1の領域のよりも広い第2の領域に画像処理に画像処理を行う。
(25)(20)のような表示装置において、上記表示制御部は、上記音の大きさに基づいて上記動画像の特定の被写体にブレを付加した画像を表示させる。
 また、上述した実施の形態および変形例は、以下のようなプログラムも含む。
(26)プログラムは、コンピュータに、撮像装置によって生成された動画像データと、上記動画像データを生成している間の上記撮像装置の速度情報を取得させる第1手順と、上記第1手順で取得した速度情報に基づいて、上記動画像データを用いて表示部に表示させる動画像に対して処理する領域を制御第2手順と、を実行させる。
 上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2016年第194631号(2016年9月30日出願)
100;画像表示装置
101,101A;制御回路
101a;画像データ入力部
101b;表示範囲設定部
101c;表示画像生成部
101d;処理対象領域設定部
104;モニタ

Claims (27)

  1.  撮像装置によって生成された動画像データと、前記動画像データを生成している間の前記撮像装置の速度情報を取得する取得部と、
     前記取得部で取得した速度情報に基づいて、前記動画像データを用いて表示部に表示させる動画像に対して処理する領域を制御する表示制御部と、
    を備える表示装置。
  2.  請求項1に記載の表示装置において、
     前記取得部は前記撮像装置の移動速度の情報を取得し、
     前記表示制御部は、前記取得部が取得した移動速度の情報に基づいて前記動画像を処理する領域を制御する表示装置。
  3.  請求項2に記載の表示装置において、
     前記表示制御部は、前記移動速度が大きくなるにつれて、前記表示部に表示させる前記動画像の領域を狭くする表示装置。
  4.  請求項3に記載の表示装置において、
     前記表示制御部は、前記移動速度が第1移動速度よりも速い第2移動速度になると、前記表示部に前記動画像の第1の領域よりも狭い第2の領域を表示させる表示装置。
  5.  請求項2に記載の表示装置において、
     前記動画像の一部の領域に画像処理を行う画像処理部を備え、
     前記画像処理部は、前記移動速度が大きくなるにつれて、画像処理を行う領域を大きくし、
     前記表示制御部は、前記画像処理部によって一部の領域に画像処理が行われた動画像を表示させる表示装置。
  6.  請求項5に記載の表示装置において、
     前記画像処理部は、前記撮像装置の移動速度が第1移動速度よりも速い第2移動速度になると、前記動画像の領域のうちの第1の領域よりも広い第2の領域に画像処理を行う表示装置。
  7.  請求項2に記載の表示装置において、
     前記表示制御部は、前記移動速度の情報に基づいて前記動画像の特定の被写体にブレを付加した画像を表示させる表示装置。
  8.  請求項1に記載の表示装置において、
     前記取得部は前記撮像装置と特定の対象物までの距離情報を取得し、  
     前記表示制御部は、前記取得部が取得した距離情報による距離の変化の大きさに基づいて前記動画像を処理する領域を制御する表示装置。
  9.  請求項8に記載の表示装置において、
     前記表示制御部は、前記距離の変化が大きくなるにつれて、前記表示部に表示させる前記動画像の領域を狭くする表示装置。
  10.  請求項9に記載の表示装置において、
     前記表示制御部は、前記距離の変化の大きさが、第1の大きさよりも大きい第2の大きさになると前記動画像の第1の領域よりも狭い第2の領域を表示させる表示装置。
  11.  請求項8に記載の表示装置において、
     前記動画像の一部の領域に画像処理を行う画像処理部を備え、
     前記画像処理部は、前記距離の変化が大きくなるにつれて、画像処理を行う領域を大きくし、
     前記表示制御部は、前記画像処理部によって一部の領域に画像処理が行われた動画像を表示させる表示装置。
  12.  請求項11に記載の表示装置において、
     前記画像処理部は、前記距離の変化の大きさが第1の大きさよりも大きい第2の大きさになると、前記動画像の領域のうちの第1の領域のよりも広い第2の領域に画像処理を行う表示装置。
  13.  請求項8に記載の表示装置において、
     前記表示制御部は、前記距離の変化の大きさに基づいて前記動画像の特定の被写体にブレを付加した画像を表示させる表示装置。
  14.  請求項1に記載の表示装置において、
     前記取得部は特定の対象物の大きさの情報を取得し、
     前記表示制御部は、前記取得部が取得した大きさの変化の大きさに基づいて前記動画像を処理する領域を制御する表示装置。
  15.  請求項14に記載の表示装置において、
     前記表示制御部は、前記大きさの変化が大きくなるにつれて、前記表示部に表示させる前記動画像の領域を狭くする表示装置。
  16.  請求項15に記載の表示装置において、
     前記表示制御部は、前記大きさの変化の大きさが、第1の大きさよりも大きい第2の大きさになると前記動画像の第1の領域よりも狭い第2の領域を表示させる表示装置。
  17.  請求項14に記載の表示装置において、
     前記動画像の一部の領域に画像処理を行う画像処理部を備え、
     前記画像処理部は、前記大きさの変化が大きくなるについて、画像処理を行う領域を大きくし、
     前記表示制御部は、前記画像処理部によって一部の領域に画像処理が行われた動画像を表示させる表示装置。
  18.  請求項17に記載の表示装置において、
     前記画像処理部は、前記大きさの変化が第1の大きさよりも大きい第2の大きさになると、前記動画像の領域のうちの第1の領域のよりも広い第2の領域に画像処理に画像処理を行う表示装置。
  19.  請求項14に記載の表示装置において、
     前記表示制御部は、前記大きさの変化に基づいて前記動画像の特定の被写体にブレを付加した画像を表示させる表示装置。
  20.  請求項1に記載の表示装置において、
     前記取得部は音の情報を取得し、
     前記表示制御部は、前記音の大きさに基づいて前記動画像を処理する領域を制御する表示装置。
  21.  請求項20に記載の表示装置において、
     前記表示制御部は、前記音の大きさが大きくなるにつれて、前記表示部に表示させる前記動画像の領域を狭くする表示装置。
  22.  請求項21に記載の表示装置において、
     前記表示制御部は、前記音の大きさが、第1の大きさよりも大きい第2の大きさになると前記動画像の第1の領域よりも狭い第2の領域を表示させる表示装置。
  23.  請求項20に記載の表示装置において、
     前記動画像の一部の領域に画像処理を行う画像処理部を備え、
     前記画像処理部は、前記音の大きさが大きくなるについて、画像処理を行う領域を大きくし、
     前記表示制御部は、前記画像処理部によって一部の領域に画像処理が行われた動画像を表示させる表示装置。
  24.  請求項23に記載の表示装置において、
     前記画像処理部は、前記音の大きさが第1の大きさよりも大きい第2の大きさになると、前記動画像の領域のうちの第1の領域のよりも広い第2の領域に画像処理に画像処理を行う表示装置。
  25.  請求項20に記載の表示装置において、
     前記表示制御部は、前記音の大きさに基づいて前記動画像の特定の被写体にブレを付加した画像を表示させる表示装置。
  26.  コンピュータに、
     撮像装置によって生成された動画像データと、前記動画像データを生成している間の前記撮像装置の速度情報を取得させる第1手順と、
     前記第1手順で取得した速度情報に基づいて、前記動画像データを用いて表示部に表示させる動画像に対して処理する領域を制御する第2手順と、
     を実行させるプログラム。
  27.  撮像装置によって生成された動画像データと、前記撮像装置が撮像している間の移動に関する情報と、を取得する取得部と、
     前記取得部で取得した移動に関する情報に基づいて、前記動画像データの表示を制御する制御部と、
    を備える表示装置。
     
PCT/JP2017/035654 2016-09-30 2017-09-29 表示装置およびプログラム WO2018062538A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/335,794 US11470253B2 (en) 2016-09-30 2017-09-29 Display device and program
JP2018542967A JP7131388B2 (ja) 2016-09-30 2017-09-29 表示装置およびプログラム
CN201780073393.0A CN109997171B (zh) 2016-09-30 2017-09-29 显示装置以及存储有程序的记录介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016194631 2016-09-30
JP2016-194631 2016-09-30

Publications (1)

Publication Number Publication Date
WO2018062538A1 true WO2018062538A1 (ja) 2018-04-05

Family

ID=61760872

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/035654 WO2018062538A1 (ja) 2016-09-30 2017-09-29 表示装置およびプログラム

Country Status (4)

Country Link
US (1) US11470253B2 (ja)
JP (1) JP7131388B2 (ja)
CN (1) CN109997171B (ja)
WO (1) WO2018062538A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017061A (ja) * 2018-07-25 2020-01-30 キヤノン株式会社 画像処理装置、画像表示装置、画像処理方法、及びプログラム
JP2020184146A (ja) * 2019-05-07 2020-11-12 パイオニア株式会社 顕著性推定装置、顕著性推定方法、及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11159798B2 (en) * 2018-08-21 2021-10-26 International Business Machines Corporation Video compression using cognitive semantics object analysis
CN113194246A (zh) * 2021-04-02 2021-07-30 烟台艾睿光电科技有限公司 一种移动设备的图像显示方法及装置
CN113276774B (zh) * 2021-07-21 2021-10-26 新石器慧通(北京)科技有限公司 无人车远程驾驶过程中视频画面的处理方法、装置及设备
CN113891018A (zh) * 2021-11-23 2022-01-04 维沃移动通信有限公司 拍摄方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172671A (ja) * 2002-11-15 2004-06-17 Toshiba Corp 動画像加工方法及び装置
JP2007116309A (ja) * 2005-10-19 2007-05-10 Seiko Epson Corp 画像情報再生装置
JP2015139100A (ja) * 2014-01-22 2015-07-30 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置及び画像処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3528548B2 (ja) * 1997-11-18 2004-05-17 トヨタ自動車株式会社 車両用動画像処理方法および車両用動画像処理装置
US7365779B2 (en) * 2000-09-14 2008-04-29 Fujitsu Ten Limited Image processing apparatus for selectively storing specific regions of an image
WO2007093780A2 (en) * 2006-02-13 2007-08-23 Snell & Wilcox Limited Method and apparatus for modifying a moving image sequence
JP5493789B2 (ja) * 2009-12-07 2014-05-14 株式会社リコー 撮像装置および撮像方法
US9661232B2 (en) * 2010-08-12 2017-05-23 John G. Posa Apparatus and method providing auto zoom in response to relative movement of target subject matter
JP2012205163A (ja) 2011-03-28 2012-10-22 Panasonic Corp ウェアラブルカメラ
TWI460668B (zh) * 2012-07-30 2014-11-11 Faraday Tech Corp 影像擷取系統與方法
JP5771767B1 (ja) * 2013-12-10 2015-09-02 オリンパス株式会社 画像処理装置、表示装置、撮像装置、画像処理方法およびプログラム
JP2015144407A (ja) * 2013-12-27 2015-08-06 株式会社Jvcケンウッド 視界支援装置、視界支援方法、及び視界支援プログラム
US9959591B2 (en) * 2014-07-31 2018-05-01 Seiko Epson Corporation Display apparatus, method for controlling display apparatus, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004172671A (ja) * 2002-11-15 2004-06-17 Toshiba Corp 動画像加工方法及び装置
JP2007116309A (ja) * 2005-10-19 2007-05-10 Seiko Epson Corp 画像情報再生装置
JP2015139100A (ja) * 2014-01-22 2015-07-30 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置及び画像処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017061A (ja) * 2018-07-25 2020-01-30 キヤノン株式会社 画像処理装置、画像表示装置、画像処理方法、及びプログラム
JP7210180B2 (ja) 2018-07-25 2023-01-23 キヤノン株式会社 画像処理装置、画像表示装置、画像処理方法、及びプログラム
JP2020184146A (ja) * 2019-05-07 2020-11-12 パイオニア株式会社 顕著性推定装置、顕著性推定方法、及びプログラム

Also Published As

Publication number Publication date
US11470253B2 (en) 2022-10-11
US20190335103A1 (en) 2019-10-31
JPWO2018062538A1 (ja) 2019-08-08
CN109997171B (zh) 2024-03-08
JP7131388B2 (ja) 2022-09-06
CN109997171A (zh) 2019-07-09

Similar Documents

Publication Publication Date Title
WO2018062538A1 (ja) 表示装置およびプログラム
US10182187B2 (en) Composing real-time processed video content with a mobile device
JP7159866B2 (ja) 撮像装置およびプログラム
KR101655078B1 (ko) 움직이는 사진 생성 방법 및 장치
JP2022064987A (ja) デジタル媒体と観察者の相互作用の構成及び実現
JP2011040876A (ja) カメラ、カメラの制御方法、表示制御装置、および表示制御方法
JPWO2008149925A1 (ja) 撮像装置、画像表示装置、プログラム
US20150332091A1 (en) Device and method of processing image
US9088722B2 (en) Image processing method, computer-readable recording medium, and image processing apparatus
JP7251472B2 (ja) 電子機器およびプログラム
JP6242428B2 (ja) 撮影装置および撮影方法
WO2018179522A1 (ja) 電子機器、プログラムおよび再生装置
JP5948960B2 (ja) カメラ、画像処理装置及びプログラム
JP6213619B2 (ja) カメラおよびプログラム
KR102470250B1 (ko) 광학적 부분 차단을 이용한 다이내믹 영상 생성방법
JP5816733B2 (ja) 撮影装置および撮影方法
JP5816732B2 (ja) 撮影装置および撮影方法
JP5925275B2 (ja) 撮影装置および撮影方法
JP6013574B2 (ja) 撮影装置および撮影方法
JP5637645B2 (ja) 撮影装置および撮影方法
JP2018026838A (ja) カメラ、画像処理装置
JP5628992B2 (ja) カメラ、カメラの制御方法、表示制御装置、および表示制御方法
CN117768766A (zh) 拍摄方法、视频处理方法和拍摄设备
JP2019050591A (ja) 電子機器、プログラム
KR20170082116A (ko) 움직이는 사진 생성 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17856485

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018542967

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17856485

Country of ref document: EP

Kind code of ref document: A1