WO2020174911A1 - 画像表示装置、画像表示方法、及びプログラム - Google Patents

画像表示装置、画像表示方法、及びプログラム Download PDF

Info

Publication number
WO2020174911A1
WO2020174911A1 PCT/JP2020/001159 JP2020001159W WO2020174911A1 WO 2020174911 A1 WO2020174911 A1 WO 2020174911A1 JP 2020001159 W JP2020001159 W JP 2020001159W WO 2020174911 A1 WO2020174911 A1 WO 2020174911A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
dead zone
target
target frame
previous
Prior art date
Application number
PCT/JP2020/001159
Other languages
English (en)
French (fr)
Inventor
優馬 小宮
雄大 阿部
智大 島田
修也 楠本
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021501692A priority Critical patent/JP7186854B2/ja
Publication of WO2020174911A1 publication Critical patent/WO2020174911A1/ja
Priority to JP2022190713A priority patent/JP2023024485A/ja

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present invention relates to an image display device, an image display method, and a program, and particularly to an image display device, an image display method, and a program that display a target frame indicating a range of a detected target.
  • Patent Document 1 Japanese Patent Laid-Open No. 2007_2 2 1 3 1 2
  • the target frame to be displayed becomes unstable depending on the movement of the target to be detected. For example, if the target is a face, ⁇ 02020/174911 2 ⁇ (: 171?2020/001159
  • the target frame moves following it, and the display of the target frame becomes unstable.
  • a technology has been proposed that displays the target frame by halving the amount of movement, but in this case the ability of the target frame to follow the target is impaired. ..
  • Patent Document 1 The technique described in Patent Document 1 is a technique aimed at suppressing repeated display and non-display of the target frame, and relates to unstable display of the target frame due to movement of the target. Is not mentioned.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide an image display device and an image display that stably display a target frame without impairing the ability to follow a detected target. It is to provide a method and a program.
  • An image display device for achieving the above object is an image acquisition unit that acquires continuous images, an object detection unit that detects an object from images, and a latest image in the images.
  • a target frame determination unit that determines the target frame that is the target range from the image, a dead zone determination unit that determines the dead zone for the position of the target frame, and the previous target frame corresponding to the target frame determined from the image one image before,
  • And _ image The storage section that stores the previous dead zone corresponding to the dead zone determined from the previous image, and if the target position is outside the range of the previous dead zone, the target frame is displayed and the previous dead zone is displayed. If it is within the range of, the display control unit that displays the previous target frame is provided.
  • the target frame displayed last time is displayed, so that a small change (positional change) is used for displaying the target frame.
  • the target frame can be stably displayed without changing the position information. If the position of the target is outside the range of the previous dead zone, the target frame corresponding to the target detected this time is displayed, so the target has excellent followability (position followability) to the detected target.
  • a frame can be displayed.
  • the target detection unit detects the positional information of the target, and the dead zone determination unit changes the dead zone based on the positional information.
  • the dead zone determination unit based on the position information and the previous dead zone, the pair of dead zones. ⁇ 02020/174911 3 ⁇ (: 171?2020/001159
  • the motion of the elephant is judged, and the dead zone of the previous time is changed based on the result of the motion judgment.
  • An image display device includes an image acquisition unit that acquires continuous images, a target detection unit that detects a target from the images, and a target range from the latest image in the images.
  • the target frame determining unit that determines the target frame
  • the dead zone determining unit that determines the dead zone for the size of the target frame
  • _ A storage unit that stores the previous dead zone corresponding to the dead zone determined from the image before the image, and if the size of the target is outside the range of the previous dead zone, the target frame is displayed and within the range of the previous dead zone.
  • a display control unit that displays the previous target frame is provided.
  • the target frame displayed last time is displayed, so that a small change (change in size) is used for displaying the target frame.
  • the target frame can be displayed stably without changing the size information.
  • the target frame corresponding to the target detected this time is displayed, so the trackability to the detected target (compliance of size) is excellent.
  • the target frame can be displayed.
  • the target detection unit detects the size information of the target, and the dead zone determination unit changes the dead zone based on the size information.
  • the dead zone determination unit makes a motion determination of the target based on the size information and the previous dead zone, and changes the previous dead zone based on the result of the motion determination.
  • the dead zone determination unit reduces the dead zone in the first direction when the result of the motion determination indicates the first direction.
  • the dead zone determination unit increases the dead zone in the first direction when the result of the motion determination does not indicate the first direction.
  • the dead zone is changed by changing the position or the size of the dead zone according to the target detected by the target detection unit.
  • An image display device is a continuous image, and has information on a detected position of a target and a position of a target frame which is a range of the target. ⁇ 0 2020/174 911 4 ⁇ (: 171? 2020 /001159
  • the image acquisition unit that acquires the image
  • the dead zone determination unit that determines the dead zone for the position of the target frame
  • the previous target frame that corresponds to the target frame that was determined from the image one image before
  • _ from the image before the image
  • a storage unit that stores the previous dead band corresponding to the determined dead band, and if the target position is outside the previous dead band, the target frame is displayed.If it is within the previous dead band, And a display control unit for displaying the previous target frame.
  • An image display device displays continuous images, which have information about the size of the detected target and the size of the target frame that is the range of the target.
  • the image acquisition unit to acquire, the dead zone determination unit that determines the dead zone for the size of the target frame, _ the previous target frame corresponding to the target frame determined from the image before the image, and _ from the image before the image
  • a storage unit that stores the previous dead band corresponding to the determined dead band, and if the size of the target is outside the range of the previous dead band, the target frame is displayed, and if it is within the range of the previous dead band, ,
  • a display control unit that displays the previous target frame.
  • the display control unit includes an information adding unit that records the position information of the displayed target frame in the image.
  • the dead zone is the dead zone width for the target frame, the initial value of the dead zone is _ constant.
  • the target detected by the target detection unit is an object.
  • the object is a face or a pupil.
  • the target frame is a rectangle.
  • the target frame is an ellipse.
  • An image display method includes a step of obtaining continuous images, a step of detecting an object from the images, and an object frame which is a range of the object from the latest image in the images.
  • An image display method includes a step of acquiring continuous images, a step of detecting an object from the images, and an object frame which is a range of the object from the latest image in the images.
  • the step of determining, the step of determining the dead zone for the size of the target frame, the previous target frame corresponding to the target frame determined from the image one image before, and the dead zone determined from the image before the image _ The step of memorizing the last dead zone, and if the size of the target is outside the range of the previous dead zone, display the target frame, and if within the range of the previous dead zone, display the previous target frame. Including steps and.
  • a program includes a step of acquiring consecutive images, a step of detecting a target from the images, and a target frame that is a range of the target from the latest image in the images. Step, determining the dead zone for the position of the target frame, the previous target frame corresponding to the target frame determined from the image one image before, and the previous dead band corresponding to the dead zone determined from the image before the image _ If the position of the target is outside the range of the previous dead zone, the target frame is displayed, and if it is within the range of the previous dead zone, the step of displaying the previous target frame is displayed. And causing the computer to execute the image display step including.
  • a program includes a step of acquiring consecutive images, a step of detecting a target from the images, and a target frame that is a range of the target from the latest image in the images. Step, determining a dead zone for the size of the target frame, the previous target frame corresponding to the target frame determined from the image one image before, and _the dead band determined from the image before the image. The step of memorizing the previous dead zone, and if the size of the target is outside the range of the previous dead zone, display the target frame, and if within the range of the previous dead zone, display the previous target frame. And causing the computer to execute the image display process including the step of.
  • the display of the target frame does not change even if the target changes slightly, and the target frame can be displayed stably, and the position of the target is outside the range of the previous dead zone.
  • the target frame corresponding to the target detected this time is displayed, so it is possible to display the target frame with excellent followability to the detected target.
  • FIG. 1 is a perspective view showing an example of an imaging device.
  • FIG. 2 is a rear view showing an example of an imaging device.
  • FIG. 3 is a diagram showing a configuration of an imaging device.
  • FIG. 4 is a block diagram showing an example of the main functional configuration of an image display device.
  • FIG. 5 is a diagram for explaining a dead zone.
  • FIG. 6 is a diagram for explaining the dead zone.
  • FIG. 7 is a diagram showing a specific example of determining a dead zone.
  • FIG. 8 is a flow chart showing an image display method.
  • Fig. 9 is a flow chart showing an image display method.
  • FIG. 10 is a diagram showing a specific example of the dead zone processing.
  • FIG. 11 is a diagram for explaining the dead zone of the size of the target frame.
  • Fig. 12 is a flow chart showing an image display method.
  • Fig. 13 is a flow chart showing an image display method.
  • Fig. 14 is a diagram showing the appearance of a smartphone.
  • FIG. 15 is a block diagram showing a configuration of a smartphone.
  • FIG. 1 and 2 are a perspective view and a rear view, respectively, showing an example of an image pickup apparatus (digital camera) equipped with the image display apparatus of the present invention.
  • an image pickup apparatus digital camera
  • the image display device 11 (see FIG. 4) is mounted on the imaging device 10 and ⁇ 02020/174911 7 ⁇ (: 171?2020/001159
  • the live view image (through image) captured in 10 is displayed.
  • the image display device 11 can also display recorded moving images.
  • the imaging device 10 is a digital camera that receives light that has passed through a lens with an imaging element, converts it into a digital signal, and records it as a still image or a moving image in a recording medium.
  • the imaging device 10 includes a taking lens 12 and a strobe on its front surface.
  • a shutter button 2 a power/mode switch 3, a mode dial 4, etc. are provided on the upper surface.
  • monitor (!_ ⁇ 0) 30 zoom button 5, cross button 6, 1 ⁇ /1 ⁇ 1 ⁇ 1 11 / ⁇ ⁇ button 7, playback button 8 , M 9 Buttons, etc. are provided.
  • the taking lens 12 is composed of a collapsible zoom lens, and when the operation mode of the camera is set to the photographing mode by the power/mode switch 3, the taking lens 12 is extended from the camera body. Strobe 1 irradiates the main subject with strobe light.
  • the shutter button 2 is composed of a so-called “half-push” and “full-push” two-step stroke type switch, and functions as a photographing preparation instruction section and an image recording instruction section.
  • the imaging device 10 displays eight (8 1 ⁇ ⁇ ⁇ ⁇ )/Hachimi (8 1 ⁇ ⁇ ) 6) Performing shooting preparatory operation for control, and when shutter button 2 is “fully pressed”, a still image is captured and recorded.
  • the imaging device 10 starts recording a movie and the shutter button 2 is "fully pressed” again. Then, recording will be stopped and it will be in a standby state.
  • the power/mode switch 3 has both a function as a power switch for turning on/off the power of the imaging device 10 and a function as a mode switch for setting the mode of the imaging device 10. It is slidably arranged between "position”, "playback position” and "shooting position”.
  • the imaging device 10 has a power/mode ⁇ 02020/174911 8 ⁇ (: 171?2020/001159
  • the mode dial 4 functions as a mode switching unit that sets the shooting mode of the imaging device 10, and the imaging mode of the imaging device 10 is set to various modes depending on the setting position of the mode dial 4. .. For example, there are “still image shooting mode” for shooting still images and “moving image shooting mode” for shooting movies.
  • the monitor 30 functions as a display unit and displays a live view image in the shooting mode, a still image or a moving image in the playback mode, and displays a menu screen and the like to display a graphical user interface. Functions as part of the ace.
  • the zoom button 5 functions as a zoom instructing means for instructing zooming, and includes five tele buttons for instructing zooming to the telephoto side and a wide button 5 ⁇ / for instructing zooming to the wide angle side.
  • a zoom instructing means for instructing zooming
  • the focal length of the taking lens 12 is changed by operating the five teleporters and the window button 5 ⁇ /.
  • these 5 tele buttons and 5 ⁇ / window buttons are operated to enlarge or reduce the image being played.
  • the cross-shaped button 6 is an operation unit for inputting instructions in four directions of up, down, left, and right. Buttons for selecting items from the menu screen and instructing selection of various setting items from each menu (force-sol Function as a moving operation means).
  • the left/right keys function as frame advance (forward/reverse direction) buttons in playback mode.
  • IV!Mi 1 ⁇ 1 11 / ⁇ ⁇ Button 7 is a function as a menu button for issuing a command to display a menu on the screen of monitor 30 and commands to confirm and execute the selected contents.
  • This is an operation button that also has the function of a ⁇ button.
  • the playback button 8 is a button for switching to a playback mode in which a still image or a moving image captured and recorded is displayed on the monitor 30.
  • the BACK button 9 functions as a button for instructing to cancel the input operation or to return to the immediately previous operation state.
  • a touch panel is provided and an operation is performed by providing a touch panel instead of providing a unique member for the buttons/switches. May be realized.
  • FIG. 3 is a diagram showing the configuration of the imaging device 10.
  • the image pickup device 10 forms a subject image (optical image) on the image pickup device 210 by the taking lens 12.
  • the taking lens 12 is composed of a zoom lens 110 and a focus lens 150.
  • the imaging device 10 also includes a diaphragm 130 and a lens drive unit 140.
  • the lens drive unit 140 drives the zoom lens 110 and the focus lens 150 forward and backward according to a command from the CPU 240 as a control unit to perform zoom (optical zoom) adjustment and focus adjustment.
  • the zoom adjustment and the focus adjustment may be performed according to the zoom operation and the focus operation performed by the user, in addition to the instruction from the CPU 240.
  • the lens driving unit 140 controls the diaphragm 130 according to a command from the CPU 240 to adjust the exposure.
  • information such as the positions of the zoom lens 110 and the focus lens 150 and the aperture of the diaphragm 130 is input to the CPU 240.
  • the imaging device 10 includes an imaging device 210, AFE 220 (AFE: Analog Front End), A/D converter 230 (A/D: Analog to Digital), CPU 240, operation unit 250, storage unit. 260 and a monitor 30 are provided.
  • the image pickup device 10 may include a mechanical shutter _ (not shown) for blocking the light transmitted through the image pickup device 210.
  • the image sensor 210 has a light-receiving surface in which a large number of light-receiving elements are arranged in a matrix, and the subject light that has passed through the zoom lens 110, the focus lens 150, and the diaphragm 130 is image-receiving element 210. An image is formed on the light receiving surface of and is converted into an electric signal by each light receiving element.
  • An R (red), G (green), or B (blue) color filter is provided on the light receiving surface of the image sensor 210, and a color image of the subject can be acquired based on the signal of each color.
  • various photoelectric conversion elements such as CMOS (Complementary Metal-Oxide Semiconductor) and CCD (Charge-Coupled Device) can be used.
  • the AFE 220 performs noise removal and amplification of the analog image signal output from the image sensor 210, and the A/D converter 230 converts the captured analog image signal into a digital image signal with a gradation range.
  • the shutter may be a mechanical shutter or an electronic shutter. In the case of an electronic shutter, the exposure time (shutter speed) can be adjusted by controlling the charge accumulation period of the image sensor 210 by the CPU 240.
  • the storage unit 260 is composed of various types of magneto-optical recording media, non-transitory recording media such as semiconductor memories, and its control circuit, and stores moving images (including live-view images) and still images.
  • the recording medium can be of a type that can be attached to and detached from the image pickup device 10. Further, the storage unit 260 stores a program and information used for controlling each type of CPU 240.
  • the monitor 30 can display a moving image (live view image, recorded moving image) and a still image.
  • the image pickup device 10 may include a finder, and the finder functions as the monitor 30.
  • the viewfinder is composed of, for example, a liquid crystal display panel, prism, lens, and the like, and the user can view moving images and still images through an eyepiece unit (not shown).
  • an optical view finder (0V F: Optical View Finder), an electronic view finder (EV F: Electronic View Finder), or a combination of these, a hybrid view finder (HVF: Hybrid View Finder)" can be used.
  • the CPU 240 reads out necessary programs and information used for various controls from the storage unit 260, and performs various processing and various controls performed by the CPU 240.
  • the CPU 240 executes various controls.
  • the hardware-like structure is the following various processors.
  • a general-purpose processor that executes software (programs) and acts as various functional units on various processors.
  • Programmable Logic Device PLD that is a processor whose circuit configuration can be changed after manufacturing such as CPU (Central Processing Unit) and F PGA (Field Programmable Gate Array)
  • AS IC Application Specific Integrated Circuit
  • AS IC Application Specific Integrated Circuit
  • One processing unit may be configured by one of these various processors, or two or more processors of the same type or different types (for example, a plurality of F PGAs or a combination of a CPU and an FPGA). ) May be included.
  • multiple functional units may be configured by one processor.
  • one processor is configured with one or more CPUs and software combinations, as represented by computers such as clients and servers.
  • this processor functions as a plurality of functional units.
  • SoC System On Chip
  • the various functional units are configured as one or more of the above various processors as a hardware structure.
  • a dead zone is set for the position of the target frame.
  • FIG. 4 is a block diagram showing an example of the main functional configuration of the image display device 11 mounted on the imaging device 10.
  • the image display device 11 includes an image acquisition unit 101, a target detection unit 103, a target frame determination unit 105, a dead zone determination unit 107, a display control unit 109, an information addition unit 1 11 and a storage unit 260. , And a monitor 30.
  • the image acquisition unit 101, the target detection unit 103, the target frame determination unit 105, the dead zone determination unit 107, the display control unit 109, and the information addition unit 11 1 are realized by C PU 240.
  • the image acquisition unit 101 acquires continuous images. Specifically, the image acquisition unit ⁇ 02020/174911 12 boxes (: 171?2020/001159
  • the image acquisition unit 1101 acquires a live view image composed of a plurality of frame images captured by the image capturing apparatus 10.
  • the target detection unit 103 detects a target from the acquired image. For example, the target detection unit 103 detects a human face by using a known technique. The target detection unit 103 detects a human face in an image and acquires position information composed of position coordinates, for example. The target detection unit 103 can also detect objects other than faces. For example, the target detection unit 103 can detect the pupil.
  • the target frame determination unit 105 determines a target frame that is a target range from the latest image in the images.
  • the target frame determination unit 105 determines a target frame for the target detected in each of the plurality of images acquired by the image acquisition unit 10 1.
  • the target frame is for notifying the user of the detected target, and various shapes can be adopted.
  • the target frame is, for example, a rectangle including a square, and the target frame is, for example, an ellipse including a perfect circle.
  • the dead zone determination unit 107 determines a dead zone regarding the display of the target frame.
  • the dead zone determination unit 107 determines, for example, a dead zone for the position of the target frame.
  • the dead zone regarding the display of the target frame means that when the target frame (or the target) moves within the dead zone, the target frame to be displayed is constant without being followed by the target frame (or the target frame). ) Moves outside the dead zone, the target frame to be displayed follows the target (the target frame corresponding to the target).
  • FIG. 5 and FIG. 6 are diagrams for explaining the dead zone determined by the dead zone determination unit 107.
  • Figures 5 and 6 show the faces 1 2 5 detected by the target detection unit 1 0 3 in the second frame, and the target frames 1 2 1 determined by the target frame determination unit 1 0 5 according to the faces 1 2 5. , And the dead zone 1 20 determined by the dead zone determination unit 107.
  • the frame 1 2 7 detected by the target detection unit 1 0 3 in the + 1st frame and the target frame 1 2 3 determined by the target frame determination unit 1 0 5 according to the face 1 2 7 are displayed. ⁇ 02020/174911 13 ⁇ (: 171?2020/001159
  • the target frames 1 2 1 and 1 2 3 are determined for the faces 1 2 5 and 1 2 7 with the same positional relationship.
  • the reference point of the position of the target or the position of the target frame is the reference point 1 (target frame 1 2 1) and the reference point 2 (target frame 1 2 3) at the upper left corner of the target frame. Is.
  • the dead band 1 2 set in the second frame is set.
  • the dead zone 1 2 set in the second frame is set.
  • the frame 1 2 7 detected in the 1 ⁇ + 1st frame is located. That is, the door + first reference point 2 is outside the dead zone 1 2 2. Therefore, + In the 1st frame, the target frame 1 2 1 corresponding to the frame 1 2 7 will be displayed.
  • the dead zone determining unit 107 can change the position and/or size of the dead zone depending on the detected object. That is, the dead zone determination unit 107 can change the position and size of the dead zone according to the position of the detected object. Further, the dead zone determination unit 107 can change the width of the dead zone according to the movement of the target. The dead zone determination unit 107 determines the target motion based on the position information and the previous dead zone, and changes the dead zone (previous dead zone) based on the result of the motion determination. For example, the dead zone determination unit 107 reduces the dead zone in the first direction when the result of the motion determination indicates the first direction.
  • the width of the dead zone is set to be small in the direction in which the detected object is moving to improve the followability of the object frame to the object.
  • the dead zone determination unit 107 ⁇ 02020/174911 14 ⁇ (: 171?2020/001159
  • the width of the dead zone is set large in the direction in which the detected object is not moving, and the stability of the display of the object frame is improved.
  • FIG. 7 is a diagram showing a specific example of the dead zone determined by the dead zone determination unit 107.
  • the dead zone is determined in the positive and negative directions of the X axis in the figure.
  • the width of the dead band in the positive direction and the negative direction is the same as the display position of the previous target frame.
  • the initial value of the dead zone may be fixed, and a dead zone having the same width may be provided in the positive and negative directions from the center of the angle of view.
  • the case shown in Fig. 7 (B) is the case where the dead zone width is increased overall.
  • Fig. 7 ( ⁇ ) shows the case where the dead zone width is made smaller overall. As shown in Figure 7 (Min), the overall dead zone width improves the stability of the display of the target frame. However, as shown in Fig. 7 ( ⁇ ), if the width of the dead zone is made smaller overall, the followability of the display of the target frame is improved.
  • the case shown in FIG. 7 (0) is the case where the dead zone determination unit 107 determines that the object has moved in the positive direction in the motion determination, and the width of the dead zone in the positive direction is reduced. In the case shown in Fig. 7 (0), it is determined that the object is not moving in the negative direction and the width of the dead zone in the negative direction is increased.
  • the case shown in FIG. 7 (Min) is the case where the dead zone determination unit 107 determines that the object has moved in the negative direction in the motion determination, and the width of the dead zone in the negative direction is reduced. In addition, in the case shown in Fig. 7 (Min), it is determined that the object is not moving in the positive direction, and the width of the dead zone in the positive direction is increased.
  • the dead zone determination unit 107 can display the target frame stably and with good tracking capability by changing the position and size of the dead zone according to the movement of the target.
  • the storage unit 260 sets the target frame determined from the previous image to the target frame. ⁇ 02020/174911 15 ⁇ (: 171?2020/001159
  • the previous target frame to which the hit applies, and _the previous dead zone corresponding to the dead zone determined from the previous image is stored.
  • the target frame 1 2 1 and the dead zone 1 2 0 (dead zone 1 2 2) in the n-th frame described in FIGS. 5 and 6 are stored.
  • the previous target frame and the previous dead zone stored in the storage unit 260 are used for the control of the display control unit 109.
  • the information stored in the storage unit 260 may be updated for each image or the information of each image may be accumulated.
  • the display control unit 109 controls the display on the monitor 30.
  • the live-view image, recorded moving image, and still image are displayed on the monitor 30.
  • the display control unit 109 displays the target frame by superimposing it on the live view image or the recorded moving image.
  • the display control unit 109 displays the target frame when the position of the target is outside the range of the previous dead zone, and displays the previous target when it is within the range of the previous dead zone.
  • the information adding unit 1111 records the position information of the displayed target frame on the image by the display control unit 109. Specifically, the coordinate value of the displayed target frame is added to each frame. Information addition in the information addition unit 1 1 1 1 is performed by a known method.
  • FIG. 8 and FIG. 9 are flow charts showing an image display method using the image display device 11.
  • a face is detected as a target, and a face frame corresponding to the detected face is displayed.
  • the image acquisition unit 1101 acquires continuous frame images in which a face is photographed (step 310). After that, the target detection unit 103 detects a face in each of the acquired frames, and acquires position information of the detected face (step 311).
  • the dead zone determination unit 107 determines whether or not the previous “positive (forward direction)” motion determination is “1” (step 3 12). If the previous “positive” motion judgment is “1", the dead zone determination unit 107 sets a small dead zone width in the positive direction. ⁇ 02020/174911 16 ⁇ (: 171?2020/001159
  • Step 3 1 3 On the other hand, if the previous "positive” motion judgment is "0" (if it is not "1"), the dead zone determination unit 1 07 sets a large dead zone width in the positive direction (step 3 1 4). ..
  • the dead zone determination unit 107 determines whether or not the previous “negative (negative direction)” motion determination is “1” (step 3 15 ). If the previous “negative” motion determination is “1”, the dead zone determination unit 107 sets a small dead zone width in the negative direction (step 316). On the other hand, when the previous "negative" motion determination is "0" (not “1"), the dead zone determination unit 10 7 sets a large dead zone width in the negative direction (step 3 1 7).
  • the dead zone determination unit 107 uses the dead zone width set by the above process to set the dead zone based on the coordinates after the previous dead zone processing (step 3 18).
  • the dead zone determination unit 107 determines whether or not the acquired position of the face this time exceeds the dead zone set as described above (step 319). If the acquired position of the face this time exceeds the set dead zone, the dead zone determination unit 107 determines whether it has exceeded the positive direction (step 320). Then, the dead zone determination unit 107 sets the motion determination as “positive: 1” or “negative: 0” when the face position this time exceeds the positive direction (step 3 2 1).
  • the target detection unit 103 sets the motion determination to “positive: 0” and “negative: 1” when the position of the face this time exceeds the negative direction (step 3 2 2).
  • the display control unit 109 uses the position information detected this time to display the face frame and displays the frame (step 3 2 3).
  • the current motion determination is set to "positive: 0" and "negative: 0" (steps 3 2 4). .. Then, the current position information is overwritten with the previous position information (step 3 2 5). After that, the display control unit 109 uses the previous position information for displaying the face frame (step 326). ⁇ 02020/174911 17 ⁇ (: 171?2020/001159
  • FIG. 10 is a diagram showing a specific example of the dead zone process.
  • the graph shown in Fig. 10 shows a live-view image in which the detection target is a face and the face frame is displayed according to the detected face.
  • the horizontal axis represents the number of times of face detection for each frame
  • the vertical axis represents the X coordinate on the display unit.
  • the square line on the graph indicates the upper limit of the dead zone
  • the rhombus line indicates the detected face position (X coordinate)
  • the cross line indicates the post-processing.
  • the line indicated by the triangle indicates the lower limit of the dead zone.
  • the position for displaying the frame is the X coordinate of the center position of the frame. Also,
  • the face position is detected between the upper limit of the dead zone and the lower limit of the dead zone (within the dead zone). Therefore, the display of the face frame does not change, and the face frame is displayed at a fixed position.
  • the display position of the frame is a position corresponding to the detected face position. Also, at the timing shown by arrow B, the same dead band as the dead band at the evening shown by arrow B 1 is set. This is because the position of the face is detected within the dead zone at the timing shown by arrow 1.
  • the display position of the side frame is a position corresponding to the detected face position.
  • the dead zone moved at the timing of arrow 3, and the width of the dead zone was also changed.
  • the timing at Arrow Ding 2 is ⁇ 02020/174911 18 ⁇ (: 171?2020/001159
  • the dead zone width and the dead zone width are adjusted with reference to the previous display position of the face frame, so that a more stable and followable face frame is provided. Can be displayed.
  • the dead zone with respect to the position has been described, but in the second embodiment, an example of setting the dead zone with respect to the size of the target frame will be described.
  • Each unit described with reference to FIG. 4 has the following functions in this embodiment. In the following description, the characteristic parts of the second embodiment will be described.
  • the target detection unit 103 detects a target and detects size information of the target.
  • the target detection unit 103 detects a target face and detects size information (area, length) of the face.
  • the target frame determination unit 105 determines a target frame that is a target range from the latest image.
  • the size of the target frame is determined according to the size of the detected target. For example, when a face is detected, the size of the target frame is determined so as to surround the range of the detected face.
  • the dead zone determination unit 107 can determine the target motion based on the size information and the previous dead zone, and can change the previous dead zone based on the result of the motion determination.
  • the dead zone determination unit 107 reduces the dead zone in the first direction when the result of the motion determination indicates the first direction.
  • the dead zone determination unit 107 can perform the motion determination by digitizing the length of one side of the square frame and setting the direction in which the number increases to the positive direction and the direction in which the number decreases to the negative direction.
  • the display control unit 109 ⁇ 02020/174911 19 ⁇ (:171?2020/001159
  • the target frame is displayed, and if it is within the dead zone of the previous time, the previous target frame is displayed.
  • the information adding unit 1111 records the size information of the displayed target frame on the image by the display control unit 109. Specifically, the size (area or length of one side) of the displayed target frame is added to each frame.
  • the information addition in the information addition unit 1 1 1 1 is performed by a known method.
  • FIG. 11 is a diagram for explaining the dead zone of the size of the target frame.
  • target frame 1 3 1 shows the lower limit of the dead zone
  • target frame 1 3 3 shows the upper limit of the dead zone
  • target frame 1 3 9 shows the target frame for display.
  • the display control unit 109 displays the target frame 139.
  • a target corresponding to the target frame 1 3 5 that is outside the lower limit of the dead zone shown by the target frame 1 3 1 and the upper limit of the dead zone shown by the target frame 1 3 3 is detected, it is displayed.
  • the control unit 109 displays the target frame 135 as a target frame for display.
  • the image display method detects a face in consecutive frames and continuously displays a face frame for notifying the user of the position of the detected face.
  • the image acquisition unit 1 0 1 acquires continuous frame images in which a face is photographed (step 3330). After that, the target detection unit 103 detects a face in each of the acquired frames and acquires size information of the detected face (step 331).
  • the dead zone determination unit 107 determines whether or not the previous "positive (forward direction)" motion determination is “1" (step 332). If the previous "positive” motion judgment is "1", the dead zone determination unit 107 sets a small dead zone width in the positive direction. ⁇ 02020/174911 20 boxes (: 171?2020/001159
  • Step 3 3 3 On the other hand, if the previous "positive" motion determination is "0" (if not "1"), the dead zone determination unit 1 07 sets a large dead zone width in the positive direction (steps 3 3 4). ..
  • the positive direction is the direction in which the frame becomes larger, and the negative direction is the direction in which the frame is smaller.
  • the dead zone determination unit 107 determines whether or not the previous "negative” motion determination is “1” (step 335). If the previous "negative (negative direction)" motion determination is “1”, the dead zone determination unit 107 sets a small dead zone width in the negative direction (steps 336). On the other hand, when the previous “negative” motion determination is “0” (when not “1”), the dead zone determination unit 10 7 sets a large dead zone width in the negative direction (step 3 3 7).
  • the dead zone determination unit 107 uses the dead zone width set by the above processing to set the dead zone based on the size after the previous dead zone processing (step 3338).
  • the dead zone determination unit 107 determines whether or not the acquired size of the face this time exceeds the dead zone set this time (step 3339). If the acquired size of the face this time exceeds the dead zone set this time, the dead zone determination unit 107 determines whether it has exceeded the forward direction (step 340). Then, the dead zone determination unit 107 sets the motion determination as “positive: 1” or “negative: 0” when the size of the face this time exceeds the positive direction (step 3 4 1).
  • the target detection unit 103 sets the motion determination as “positive: 0” and “negative: 1” (step 3 4 2). After that, the display control unit 109 displays the open frame using the size information detected this time for displaying the face frame (step 3 4 3).
  • the motion determination this time is set to “positive: 0” and “negative: 0” (step 3 4 4 ). Then, the size information of this time is overwritten with the size information of the previous time (step 3 4 5). After that, the display control unit 109 uses the previous size information for displaying the face frame (step 346). ⁇ 02020/174911 21 ⁇ (: 171?2020/001159
  • the target frame displayed last time is displayed, so the target frame is displayed for small fluctuations (size fluctuations).
  • the target frame can be displayed stably without changing the size information.
  • the target frame corresponding to the target detected this time is displayed, so that the trackability to the detected target (size trackability) is improved.
  • An excellent target frame can be displayed.
  • the dead zone with respect to the position of the target frame was described in the first embodiment, and the dead zone with respect to the size of the target frame was described in the second embodiment.
  • the dead zone can be determined with respect to the position and size of the target frame. That is, the dead zone is set at the same time for the position and size of the target frame. In this way, by setting the dead zone regarding the position and size of the target frame, it is possible to more stably follow the target and display the target frame.
  • the target detection unit 103 detects the target in the image acquired by the image acquisition unit 101, and the target frame determination unit 105 determines the target frame.
  • the continuous images acquired by the image acquisition unit 101 may have information on the detected position of the target and the position of the target frame that is the target range.
  • consecutive images acquired by the image acquisition unit 101 may include information regarding the size of the detected target and the size of the target frame that is the range of the target.
  • the image display device 11 does not need to detect the target from the acquired image (target detection unit 103) and determine the target frame (target frame determination unit 105).
  • ⁇ Smartphone configuration> a camera was used as an example of the imaging device 10 in FIG. 1, but the application of the present invention is not limited to this.
  • Other modes to which the present invention can be applied include, for example, mobile phones and smartphones having a camera function, PDAs (Persona I Digital Assistants), and portable game machines.
  • PDAs Persona I Digital Assistants
  • portable game machines Portable game machines.
  • the CPU 240 in FIG. 4 corresponds to the main control unit 501
  • the storage unit 260 corresponds to the storage unit 550
  • the monitor 30 corresponds to the display panel 52 1.
  • FIG. 14 is a diagram showing an appearance of the smartphone 500.
  • the smartphone 500 shown in FIG. 14 has a flat housing 502, and a display panel 52 1 as a display unit and an operation panel 522 as an input unit are integrally formed on one surface of the housing 502. It has a display input section 520.
  • the housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541.
  • the structure of the housing 502 is not limited to this, and for example, a structure in which the display unit and the input unit are independent, or a structure having a folding structure or a sliding mechanism can be adopted.
  • FIG. 15 is a block diagram showing a configuration of the smartphone 500 shown in FIG.
  • the main components of a smartphone are a wireless communication unit 510 that performs mobile wireless communication via a base station and a mobile communication network, a display input unit 520, and a call unit 530.
  • GPS Global Positioning System
  • the wireless communication unit 510 performs wireless communication with a base station accommodated in the mobile communication network according to an instruction from the main control unit 501. Using this wireless communication, various file data such as voice data and image data, transmission and reception of e-mail data, reception of web data and streaming data, etc. are performed.
  • the display input unit 520 is controlled by the main control unit 501 to display images (still images and motion images). Image), text information, etc. to visually convey the information to the user and detect a user operation for the displayed information, which is a so-called touch panel, which includes a display panel 52 1 and an operation panel 522. ..
  • the display panel 521 uses an LCD (Liquid Crystal Display), an ELD (Org anic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 522 is a device for visually recognizing an image displayed on the display surface of the display panel 521 and detecting one or a plurality of coordinates operated by a user's finger or stylus. When such a device is operated with a user's finger or a stylus, a detection signal generated due to the operation is output to the main control unit 501. Next, the main control unit 501 detects the operation position (coordinates) on the display panel 521 based on the received detection signal.
  • the display panel 52 1 and the operation panel 522 of the smartphone 500 which is illustrated as one embodiment of the imaging device 10 of the present invention, constitute a display input unit 520.
  • the operation panel 522 is arranged so as to completely cover the display panel 52 1.
  • the operation panel 522 may have a function of detecting a user operation even in the area outside the display panel 521.
  • the operation panel 522 has a detection area (hereinafter referred to as a display area) for the overlapping portion overlapping the display panel 52 1 and a detection area (hereinafter, referred to as a display area) for the outer edge portion not overlapping the display panel 52 1. , Non-display area).
  • the size of the display area and the size of the display panel 521 may be completely matched, but they are not necessarily matched.
  • the operation panel 522 may have two sensitive areas, an outer edge portion and an inner portion other than the outer edge portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like.
  • the position detection method used on the operation panel 522 includes a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also do it.
  • the call unit 530 includes a speaker 531 and a microphone 532, converts the user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the voice data to the main control unit 501.
  • the audio data received by the wireless communication unit 510 or the external input/output unit 560 is decoded and output from the speaker 53 1.
  • the spin force 531 and the microphone 532 can be mounted on the same surface as the surface on which the display input unit 520 is provided.
  • the operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 540 is mounted on the side surface of the housing 502 of the smartphone 500, and is turned on when pressed with a finger or the like, and turned off due to a restoring force such as a panel when the finger is released. It is a push button type switch.
  • the storage unit 550 is a control program of the main control unit 501, control data, application software, address data in which the name and telephone number of a communication partner are associated, data of sent/received e-mail, and Web browsing. It stores the downloaded Web data and downloaded content data, and also temporarily stores streaming data.
  • the storage unit 550 includes an internal storage unit 551 built in the smartphone and an external storage unit 552 having a detachable external memory slot.
  • Each of the internal storage unit 55 1 and the external storage unit 552 that make up the storage unit 550 has a flash memory type, a hard disk type, and a multimedia card micro type. ro type), a read-type memory (for example, Micro SD (registered trademark) memory, etc.), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like.
  • the external input/output unit 560 plays a role of an interface with all external devices connected to the smartphone 500, and communicates with other external devices (for example, a universal serial bus (US B), And EEE 1 394 Etc.) or network (for example, Internet, wireless LAN (Local Area Network), Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Assoc i at ion: Ir DA ) (Registered trademark), UWB (Ultra Wideband) (registered trademark), ZigBee (registered trademark), etc.) for direct or indirect connection.
  • a universal serial bus USB
  • Bluetooth registered trademark
  • RFID Radio Frequency Identification
  • Ir DA Infrared Data Assoc i at ion: Ir DA
  • UWB User Wideband
  • ZigBee registered trademark
  • Examples of external devices connected to the smartphone 500 include a memory card (Memory card) connected via a wired/wireless headset, a wired/wireless external charger, a wired/wireless data port, and a socket. ), S ⁇ M (Subscriber I dent i ty Module Card) /UIM (Userl dent i ty Module Card) mode, or audio/video — Dio video equipment, wirelessly connected external audio/video equipment, wired/wireless connected smartphones, wired/wireless connected personal computers, wired/wireless connected PDA, and earphones.
  • the external input/output unit 560 can transmit data transmitted from such an external device to each constituent element inside the smartphone 500, or can transmit data inside the smartphone 500 to an external device. ..
  • the receiving unit 570 follows the GPS satellite according to the instruction from the main control unit 501.
  • the GPS signal transmitted from ST1 to STn is received, the positioning calculation processing based on the received multiple GPS signals is executed, and the position of the smartphone 500 including latitude, longitude, and altitude is detected.
  • the reception unit 570 can detect the position using the position information.
  • the motion sensor unit 580 includes, for example, a triaxial acceleration sensor and a gyro sensor, and detects a physical movement of the smartphone 500 according to an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 can be detected. The detection result is output to the main control unit 501. ⁇ 02020/174911 26 ⁇ (: 171?2020/001159
  • the power supply unit 590 follows the instructions of the main control unit 501 and the smartphone 5
  • Electric power stored in a battery (not shown) is supplied to each unit of 0.
  • the main control unit 5001 includes a microprocessor, operates according to the control program and control data stored in the storage unit 500, and controls the respective units of the smartphone 500 in an integrated manner. Further, the main control unit 501 has a mobile communication control function and application processing function for controlling each unit of the communication system in order to perform voice communication and data communication through the wireless communication unit 510.
  • the application processing function is realized by the operation of the main control unit 5 01 according to the application software stored in the storage unit 5 50.
  • the application processing function includes, for example, an infrared communication function for controlling the external input/output unit 560 to perform data communication with a counterpart device, an electronic mail function for transmitting/receiving electronic mail, Browse the page It has a swallowing function and an image processing function for performing compression processing according to the present invention.
  • the main control unit 501 displays images on the display input unit 520 based on image data (still image or moving image data) such as received data or downloaded streaming data. It has a processing function.
  • the image processing function refers to a function in which the main control unit 501 decodes the above image data, performs image processing on the decoding result, and displays the image on the display input unit 520.
  • the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.
  • the main control unit 501 By executing the display control, the main control unit 501 displays an icon for starting the application software and a software key such as a scroll bar, or opens a window for composing an email. indicate.
  • the scroll bar is a software key that accepts an instruction to move the display part of an image that is too large to fit in the display area of the display panel 521.
  • the main control unit 501 detects a user operation through the operation unit 540, operates an icon through the operation panel 522, and inputs a character string into an input field of a window. Or a request to scroll the display image through the scroll bar.
  • the main control unit 501 causes the operation position with respect to the operation panel 522 to overlap the display panel 52 1 (display area) or an outer edge that does not overlap the other display panels 52 1. It is equipped with a touch panel control function that determines whether it is a partial area (non-display area) and controls the display area of the sensitive area and software keys of the operation panel 522.
  • the main control unit 501 can also detect a gesture operation performed on the operation panel 522 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with a finger, specifying multiple positions at the same time, or combining them, and drawing a trajectory for at least one from multiple positions.
  • the camera unit 54 1 is a CMOS (Complementary Meta I Oxide Semiconductor) or CCD.
  • the camera unit 54 1 compresses the image data of a still image obtained by shooting with, for example, “P EG (Joint Photographic coding Experts Group)” or the image data of a moving image with, for example, It can be compressed by H.264/AVC and recorded in the storage unit 550, or can be output through the external input/output unit 560 and the wireless communication unit 510.
  • P EG Joint Photographic coding Experts Group
  • the camera unit 54 1 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 54 1 is not limited to this, and the rear surface of the display input unit 520 is not limited to this. Or a plurality of camera units 54 1 may be mounted. If multiple camera units 54 1 are installed, switch the camera unit 54 1 used for shooting. ⁇ 02020/174911 28 ⁇ (: 171?2020/001159
  • the camera unit 541 can be used for various functions of the smartphone 500.
  • the image acquired by the camera unit 5 4 1 can be displayed on the display panel 5 2 1, and the image of the camera unit 5 4 1 can be used as one of the operation inputs of the operation panel 5 2 2.
  • the receiver 3570 detects the position, the position can be detected by referring to the image from the camera 541.
  • the camera of the smartphone 5100 can be used without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor (gyro sensor). It is also possible to judge the optical axis direction of the part 5 4 1 and the current usage environment.
  • the image from the camera unit 5 41 can also be used in the abrasion software.
  • position information acquired by the receiving unit 570 and voice information acquired by the microphone 532 for still image or moving image data (voice-text conversion is performed by the main control unit, etc.).
  • Text information) the posture information acquired by the motion sensor unit 580, etc. can be added and recorded in the storage unit 550, or the external input/output unit 560 or wireless communication unit 5 It can also be output through 10.

Abstract

検出された対象への追従性を損なうことなく、安定的に対象枠を表示する画像表示装置、画像表示方法、及びプログラムを提供する。 画像表示装置11は、連続する画像を取得する画像取得部101と、画像から対象を検出する対象検出部103と、画像中の最新の画像から対象の範囲である対象枠を決定する対象枠決定部105と、対象枠の位置に対する不感帯を決定する不感帯決定部と、一画像前の画像から決定した対象枠に相当する前回の対象枠、及び、一画像前の画像から決定した不感帯に相当する前回の不感帯を記憶する記憶部260と、対象の位置が、前回の不感帯の範囲外の場合には、対象枠を表示し、前回の不感帯の範囲内の場合には、前回の対象枠を表示する表示制御部109と、を備える。

Description

明 細 書
発明の名称 : 画像表示装置、 画像表示方法、 及びプログラム 技術分野
[0001 ] 本発明は、 画像表示装置、 画像表示方法、 及びプログラムに関し、 特に検 出した対象の範囲を示す対象枠を表示する画像表示装置、 画像表示方法、 及 びプログラムに関する。
背景技術
[0002] 従来より、 デジタルカメラにより撮影を行う場合に、 被写体が人の場合に は顔検出が行われ、 検出された顔の位置や大きさの情報に基づいて、 顔枠 ( 対象枠) の表示が行われている。
[0003] デジタルカメラの L C D (L i qu i d Crysta l D i sp lay) で構成される表示部 に表示される対象枠を連続して表示する場合に、 対象枠を安定的に表示する 技術が提案されている。
[0004] 例えば、 撮影待機状態において、 顔領域の検出及び非検出が繰り返され、 ライブビュー画像 (スルー画像) 上に顔領域を示すための対象枠 (四角枠) が表示されたり、 表示されなくなったりする場合がある。 特許文献 1 に記載 された技術は、 この対象枠の表示及び非表示が繰り返されることを抑制する ことを目的としている。 特許文献 1 に記載された技術では、 被写体領域が検 出されなかった場合には、 直前に設定された検出被写体領域を継続して検出 被写体領域として対象枠を表示する。
先行技術文献
特許文献
[0005] 特許文献 1 :特開 2 0 0 7 _ 2 2 1 3 1 2号公報
発明の概要
発明が解決しようとする課題
[0006] ここで、 表示する対象枠は検出する対象の動きによっては不安定な表示と なってしまう。 例えば検出対象が顏である場合には、 顔の微小な移動に対し \¥02020/174911 2 卩(:171?2020/001159
ても対象枠が追従して移動してしまい、 対象枠の表示が不安定となってしま う。 _方で、 対象枠の変動幅を抑えるために、 移動量を半分にして対象枠を 表示する技術が提案されているが、 この場合には対象枠の対象への追従性が 損なわれてしまう。
[0007] 特許文献 1 に記載の技術は、 対象枠の表示及び非表示が繰り返されること を抑制することを目的とした技術であって、 対象が移動することによる対象 枠の不安定な表示に関しては言及されていない。
[0008] 本発明はこのような事情に鑑みてなされたもので、 その目的は、 検出され た対象への追従性を損なうことなく、 安定的に対象枠を表示する画像表示装 置、 画像表示方法、 及びプログラムを提供することである。
課題を解決するための手段
[0009] 上記目的を達成するための本発明の一の態様である画像表示装置は、 連続 する画像を取得する画像取得部と、 画像から対象を検出する対象検出部と、 画像中の最新の画像から対象の範囲である対象枠を決定する対象枠決定部と 、 対象枠の位置に対する不感帯を決定する不感帯決定部と、 一画像前の画像 から決定した対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決 定した不感帯に相当する前回の不感帯を記憶する記憶部と、 対象の位置が、 前回の不感帯の範囲外の場合には、 対象枠を表示し、 前回の不感帯の範囲内 の場合には、 前回の対象枠を表示する表示制御部と、 を備える。
[0010] 本態様によれば、 対象の位置が前回の不感帯の範囲内の場合には、 前回に 表示した対象枠を表示するので、 小さい変動 (位置の変動) では対象枠の表 示用の位置情報を変えずに安定的に対象枠を表示することができる。 また、 対象の位置が前回の不感帯の範囲外の場合には、 今回検出された対象に対応 する対象枠を表示するので、 検出された対象への追従性 (位置の追従性) が 優れた対象枠の表示を行うことができる。
[001 1 ] 好ましくは、 対象検出部は、 対象の位置情報を検出し、 不感帯決定部は、 位置情報に基づいて、 不感帯を変更する。
[0012] 好ましくは、 不感帯決定部は、 位置情報と前回の不感帯とに基づいて、 対 \¥02020/174911 3 卩(:171?2020/001159
象の動き判定を行い、 動き判定の結果に基づいて前回の不感帯を変更する。
[0013] 本発明の他の態様である画像表示装置は、 連続する画像を取得する画像取 得部と、 画像から対象を検出する対象検出部と、 画像中の最新の画像から対 象の範囲である対象枠を決定する対象枠決定部と、 対象枠の大きさに対する 不感帯を決定する不感帯決定部と、 一画像前の画像から決定した対象枠に相 当する前回の対象枠、 及び、 _画像前の画像から決定した不感帯に相当する 前回の不感帯を記憶する記憶部と、 対象の大きさが、 前回の不感帯の範囲外 の場合には、 対象枠を表示し、 前回の不感帯の範囲内の場合には、 前回の対 象枠を表示する表示制御部と、 を備える。
[0014] 本態様によれば、 対象の大きさが前回の不感帯の範囲内の場合には、 前回 に表示した対象枠を表示するので、 小さい変動 (大きさの変動) では対象枠 の表示用の大きさ情報を変えずに安定的に対象枠を表示することができる。 また、 対象の位置が前回の不感帯の範囲外の場合には、 今回検出された対象 に対応する対象枠を表示するので、 検出された対象への追従性 (大きさの追 従性) が優れた対象枠の表示を行うことができる。
[0015] 好ましくは、 対象検出部は、 対象の大きさ情報を検出し、 不感帯決定部は 、 大きさ情報に基づいて、 不感帯を変更する。
[0016] 好ましくは、 不感帯決定部は、 大きさ情報と前回の不感帯とに基づいて、 対象の動き判定を行い、 動き判定の結果に基づいて前回の不感帯を変更する
[0017] 好ましくは、 不感帯決定部は、 動き判定の結果が第 1の方向を示す場合に は、 第 1の方向の不感帯を小さくする。
[0018] 好ましくは、 不感帯決定部は、 動き判定の結果が第 1の方向を示さない場 合には、 第 1の方向の不感帯を大きくする。
[0019] 好ましくは、 不感帯の変更は、 不感帯の位置又は大きさを、 対象検出部で 検出された対象によって変更する。
[0020] 本発明の他の態様である画像表示装置は、 連続する画像であって、 検出さ れた対象の位置、 及び対象の範囲である対象枠の位置に関する情報を有する \¥0 2020/174911 4 卩(:171? 2020 /001159
画像を取得する画像取得部と、 対象枠の位置に対する不感帯を決定する不感 帯決定部と、 一画像前の画像から決定した対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決定した不感帯に相当する前回の不感帯を記憶す る記憶部と、 対象の位置が、 前回の不感帯の範囲外の場合には、 対象枠を表 示し、 前回の不感帯の範囲内の場合には、 前回の対象枠を表示する表示制御 部と、 を備える。
[0021 ] 本発明の他の態様である画像表示装置は、 連続する画像であって、 検出さ れた対象の大きさ、 及び対象の範囲である対象枠の大きさに関する情報を有 する画像を取得する画像取得部と、 対象枠の大きさに対する不感帯を決定す る不感帯決定部と、 _画像前の画像から決定した対象枠に相当する前回の対 象枠、 及び、 _画像前の画像から決定した不感帯に相当する前回の不感帯を 記憶する記憶部と、 対象の大きさが、 前回の不感帯の範囲外の場合には、 対 象枠を表示し、 前回の不感帯の範囲内の場合には、 前回の対象枠を表示する 表示制御部と、 を備える。
[0022] 好ましくは、 表示制御部によって、 表示された対象枠の位置情報を画像に 記録する情報追加部を備える。
[0023] 好ましくは、 不感帯は対象枠に対する不感帯幅であり、 不感帯の初期値は 、 _定である。
[0024] 好ましくは、 対象検出部が検出する対象は物体である。
[0025] 好ましくは、 物体は、 顔又は瞳である。
[0026] 好ましくは、 対象枠は矩形である。
[0027] 好ましくは、 対象枠は楕円である。
[0028] 本発明の他の態様である画像表示方法は、 連続する画像を取得するステッ プと、 画像から対象を検出するステップと、 画像中の最新の画像から対象の 範囲である対象枠を決定するステップと、 対象枠の位置に対する不感帯を決 定するステップと、 一画像前の画像から決定した対象枠に相当する前回の対 象枠、 及び、 _画像前の画像から決定した不感帯に相当する前回の不感帯を 記憶するステップと、 対象の位置が、 前回の不感帯の範囲外の場合には、 対 \¥02020/174911 5 卩(:171?2020/001159
象枠を表示し、 前回の不感帯の範囲内の場合には、 前回の対象枠を表示する ステップと、 を含む。
[0029] 本発明の他の態様である画像表示方法は、 連続する画像を取得するステッ プと、 画像から対象を検出するステップと、 画像中の最新の画像から対象の 範囲である対象枠を決定するステップと、 対象枠の大きさに対する不感帯を 決定するステップと、 一画像前の画像から決定した対象枠に相当する前回の 対象枠、 及び、 _画像前の画像から決定した不感帯に相当する前回の不感帯 を記憶するステップと、 対象の大きさが、 前回の不感帯の範囲外の場合には 、 対象枠を表示し、 前回の不感帯の範囲内の場合には、 前回の対象枠を表示 するステップと、 を含む。
[0030] 本発明の他の態様であるプログラムは、 連続する画像を取得するステップ と、 画像から対象を検出するステップと、 画像中の最新の画像から対象の範 囲である対象枠を決定するステップと、 対象枠の位置に対する不感帯を決定 するステップと、 一画像前の画像から決定した対象枠に相当する前回の対象 枠、 及び、 _画像前の画像から決定した不感帯に相当する前回の不感帯を記 憶するステップと、 対象の位置が、 前回の不感帯の範囲外の場合には、 対象 枠を表示し、 前回の不感帯の範囲内の場合には、 前回の対象枠を表示するス テップと、 を含む画像表示工程をコンピュータに実行させる。
[0031 ] 本発明の他の態様であるプログラムは、 連続する画像を取得するステップ と、 画像から対象を検出するステップと、 画像中の最新の画像から対象の範 囲である対象枠を決定するステップと、 対象枠の大きさに対する不感帯を決 定するステップと、 一画像前の画像から決定した対象枠に相当する前回の対 象枠、 及び、 _画像前の画像から決定した不感帯に相当する前回の不感帯を 記憶するステップと、 対象の大きさが、 前回の不感帯の範囲外の場合には、 対象枠を表示し、 前回の不感帯の範囲内の場合には、 前回の対象枠を表示す るステップと、 を含む画像表示工程をコンピュータに実行させる。
発明の効果
[0032] 本発明によれば、 対象の位置が、 前回の不感帯の範囲内の場合には前回に \¥02020/174911 6 卩(:171?2020/001159
表示した対象枠を表示するので、 対象の多少の変動では対象枠の表示が変わ らず安定的に対象枠を表示することができ、 また、 対象の位置が、 前回の不 感帯の範囲外の場合には、 今回検出された対象に対応する対象枠を表示する ので、 検出された対象への追従性が優れた対象枠の表示を行うことができる 図面の簡単な説明
[0033] [図 1]図 1は、 撮像装置の一例を示す斜視図である。
[図 2]図 2は、 撮像装置の一例を示す背面図である。
[図 3]図 3は、 撮像装置の構成を示す図である。
[図 4]図 4は、 画像表示装置の主な機能構成例を示すブロック図である。 [図 5]図 5は、 不感帯について説明する図である。
[図 6]図 6は、 不感帯について説明する図である。
[図 7]図 7は、 不感帯の決定の具体例を示す図である。
[図 8]図 8は、 画像表示方法を示すフローチヤートである。
[図 9]図 9は、 画像表示方法を示すフローチヤートである。
[図 10]図 1 0は、 不感帯処理の具体例を示す図である。
[図 1 1]図 1 1は、 対象枠の大きさの不感帯に関して説明する図である。 [図 12]図 1 2は、 画像表示方法を示すフローチヤートである。
[図 13]図 1 3は、 画像表示方法を示すフローチヤートである。
[図 14]図 1 4は、 スマートフォンの外観を示す図である。
[図 15]図 1 5は、 スマートフォンの構成を示すブロック図である。
発明を実施するための形態
[0034] 以下、 添付図面にしたがって本発明に係る画像表示装置、 画像表示方法、 及びプログラムの好ましい実施の形態について説明する。
[0035] [撮像装置]
図 1及び図 2は、 それぞれ本発明の画像表示装置を搭載する撮像装置の一 例 (デジタルカメラ) を示す斜視図及び背面図である。
[0036] 画像表示装置 1 1 (図 4を参照) は、 撮像装置 1 0に搭載され、 撮像装置 \¥02020/174911 7 卩(:171?2020/001159
1 〇で撮像されたライブビュー画像 (スルー画像) を表示する。 なお、 画像 表示装置 1 1は、 記録された動画も表示することができる。
[0037] 撮像装置 1 0は、 レンズを通った光を撮像素子で受け、 デジタル信号に変 換して静止画又は動画の画像データとして記録メディアに記録するデジタル カメラである。
[0038] 図 1 に示すように撮像装置 1 0は、 その正面に撮影レンズ 1 2、 ストロボ
1等が配設され、 上面にはシャッタボタン 2、 電源/モードスイッチ 3、 モ —ドダイヤル 4等が配設されている。 一方、 図 2に示すように、 カメラ背面 には、 モニタ (!_〇0)3 0、 ズームボタン 5、 十字ボタン 6、 1\/1巳 1\1 11 /〇 <ボタン 7、 再生ボタン 8、 巳 〇 ボタン 9等が配設されている。
[0039] 撮影レンズ 1 2は、 沈胴式のズームレンズで構成されており、 電源/モー ドスイッチ 3によってカメラの作動モードを撮影モードに設定することによ り、 カメラ本体から繰り出される。 ストロボ 1は、 主要被写体にストロボ光 を照射するものである。
[0040] シャッタボタン 2は、 いわゆる 「半押し」 と 「全押し」 とからなる 2段ス トローク式のスイッチで構成され、 撮影準備指示部として機能するとともに 、 画像の記録指示部として機能する。
[0041 ] 撮像装置 1 0は、 撮影モードとして静止画撮影モードが選択され、 シャッ タボタン 2が 「半押し」 されると、 八 (八 1^〇干〇〇 ) /八巳 (八 1^〇 [乂卩〇 6)制御を行う撮影準備動作を行い、 シャッタボタン 2が 「全押し」 されると 、 静止画の撮像及び記録を行う。
[0042] また、 撮像装置 1 0は、 撮影モードとして動画撮影モードが選択され、 シ ャッタボタン 2が 「全押し」 されると、 動画の録画を開始し、 シャッタボタ ン 2が再度 「全押し」 されると、 録画を停止して待機状態になる。
[0043] 電源/モードスイッチ 3は、 撮像装置 1 0の電源を〇 /〇 する電源 スイッチとしての機能と、 撮像装置 1 0のモードを設定するモードスイッチ としての機能とを併せ持っており、 「〇 位置」 と 「再生位置」 と 「撮影 位置」 との間をスライ ド自在に配設されている。 撮像装置 1 0は、 電源/モ \¥02020/174911 8 卩(:171?2020/001159
—ドスイッチ 3をスライ ドさせて、 「再生位置」 又は 「撮影位置」 に合わせ ることにより、 電源が〇 1\1になり、 「〇 位置」 に合わせることにより、 電源が〇 になる。 そして、 電源/モードスイッチ 3をスライ ドさせて、 「再生位置」 に合わせることにより、 「再生モード」 に設定され、 「撮影位 置」 に合わせることにより、 「撮影モード」 に設定される。
[0044] モードダイヤル 4は、 撮像装置 1 0の撮影モードを設定するモード切替部 として機能し、 このモードダイヤル 4の設定位置により、 撮像装置 1 0の撮 影モードが様々なモードに設定される。 例えば、 静止画撮影を行う 「静止画 撮影モード」 、 動画撮影を行う 「動画撮影モード」 等である。
[0045] モニタ 3 0は、 表示部として機能し、 撮影モード時のライブビュー画像の 表示、 再生モード時の静止画又は動画の表示を行うとともに、 メニュー画面 の表示等を行うことでグラフィカルユーザーインターフエースの一部として 機能する。
[0046] ズームボタン 5は、 ズームを指示するズーム指示手段として機能し、 望遠 側へのズームを指示するテレボタン 5丁と、 広角側へのズームを指示するワ イ ドボタン 5 \^/とからなる。 撮像装置 1 0は、 撮影モード時に、 このテレポ タン 5丁とワイ ドボタン 5 \^/とが操作されることにより、 撮影レンズ 1 2の 焦点距離が変化する。 また、 再生モード時に、 このテレボタン 5丁とワイ ド ボタン 5 \^/とが操作されることにより、 再生中の画像が拡大、 縮小する。
[0047] 十字ボタン 6は、 上下左右の 4方向の指示を入力する操作部であり、 メニ ュー画面から項目を選択したり、 各メニューから各種設定項目の選択を指示 したりするボタン (力ーソル移動操作手段) として機能する。 左/右キーは 再生モード時のコマ送り (順方向/逆方向送り) ボタンとして機能する。
[0048] IV!巳 1\1 11 /〇 <ボタン 7は、 モニタ 3 0の画面上にメニューを表示させる 指令を行うためのメニューボタンとしての機能と、 選択内容の確定及び実行 などを指令する〇 <ボタンとしての機能とを兼備した操作ボタンである。
[0049] 再生ボタン 8は、 撮影記録した静止画又は動画をモニタ 3 0に表示させる 再生モードに切り替えるためのボタンである。 [0050] BACKボタン 9は、 入力操作のキャンセルや一つ前の操作状態に戻すこ とを指示するボタンとして機能する。
[0051] なお、 本実施形態に係る撮像装置 1 0において、 ボタン/スイッチ類に対 して固有の部材を設けるのではなく、 タッチパネルを設けこれを操作するこ とでそれらボタン/スイッチ類の機能を実現するようにしてもよい。
[0052] [撮像装置の内部構成]
図 3は、 撮像装置 1 0の構成を示す図である。 撮像装置 1 0は撮影レンズ 1 2により被写体像 (光学像) を撮像素子 2 1 0に結像させる。
[0053] 撮影レンズ 1 2はズームレンズ 1 1 0とフォーカスレンズ 1 50とから構 成される。 また、 撮像装置 1 0は、 絞り 1 30と、 レンズ駆動部 1 40とを 備える。 レンズ駆動部 1 40は、 制御部としての C P U 240からの指令に 応じてズームレンズ 1 1 0、 フォーカスレンズ 1 50を進退駆動してズーム (光学ズーム) 調整、 フォーカス調整を行う。 ズーム調整及びフォーカス調 整は、 C P U 240からの指令に応じて行う他に、 ユーザが行ったズーム操 作、 フォーカス操作に応じて行ってもよい。 また、 レンズ駆動部 1 40は C P U 240からの指令に応じて絞り 1 30を制御し、 露出を調整する。 一方 、 ズームレンズ 1 1 0及びフォーカスレンズ 1 50の位置、 絞り 1 30の開 放度等の情報が C P U 240に入力される。
[0054] 撮像装置 1 0は、 撮像素子 2 1 0、 A F E 220 (A F E : Analog Front End) 、 A/D変換器 230 (A/D : Analog to Digital) 、 C P U 240 、 操作部 250、 記憶部 260、 及びモニタ 30を備える。 撮像装置 1 0は 、 撮像素子 2 1 0に透過させる光を遮光するためのメカニカルシャッタ _ ( 不図示) を有していてもよい。 撮像素子 2 1 0は、 多数の受光素子がマトリ クス状に配列された受光面を備え、 ズームレンズ 1 1 0、 フォーカスレンズ 1 50、 及び絞り 1 30を透過した被写体光が撮像素子 2 1 0の受光面上に 結像され、 各受光素子によって電気信号に変換される。 撮像素子 2 1 0の受 光面上には R (赤) , G (緑) , 又は B (青) のカラーフイルタが設けられ ており、 各色の信号に基づいて被写体のカラー画像を取得することができる 〇 なお、 撮像素子 2 1 0としては、 CMOS (Complementary Metal-Oxide S emiconductor) 、 CCD (Charge-Coup led Device) 等の様々な光電変換素子 を用いることができる。 A F E 220は撮像素子 2 1 0から出力されるアナ ログ画像信号のノイズ除去、 増幅等を行い、 A/D変換器 230は、 取り込 んだアナログ画像信号を階調幅があるデジタル画像信号に変換する。 なお、 シャッターは、 メカニカルシャッターでも電子シャッターでもよい。 電子シ ャッターの場合、 C P U 240によって撮像素子 2 1 0の電荷蓄積期間を制 御することで露光時間 (シャッタースピード) を調節することができる。
[0055] 記憶部 260は各種の光磁気記録媒体、 半導体メモリ等の非一時的記録媒 体及びその制御回路により構成され、 動画 (ライブビュー画像を含む) 及び 静止画を記憶する。 記録媒体は撮像装置 1 〇に対し着脱できるタイプを用い ることができる。 また、 記憶部 260にはプログラム及び C P U 240の各 種制御に用いる情報等が記憶される。
[0056] モニタ 30は、 動画 (ライブビュー画像、 記録動画) 及び静止画を表示す ることができる。 撮像装置 1 0はファインダを備えていてもよく、 ファイン ダはモニタ 30として機能する。 ファインダは、 例えば液晶表示パネル、 プ リズム、 レンズ等により構成され、 ユーザは図示せぬ接眼部を介して動画、 静止画を視認することができる。 ファインダとしては 「光学式ビューファイ ンダ (0V F : Optical View Finder) 」 、 「電子式ビューファインダ (EV F : Electronic View Finder) 」 、 あるいはこれらの組合せである 「ハイブ リッ ド式ビューファインダ (H V F : Hybrid View Finder) 」 を用いること ができる。
[0057] C P U 240は、 記憶部 260から必要なプログラム及び各種制御に用い る情報を読み出して、 C P U 240で行われる各種処理及び各種制御を行う
[0058] C P U 240は各種制御を実行する。 ハードウェア的な構造は、 次に示す ような各種のプロセッサ (processor) である。 各種のプロセッサには、 ソフ トウェア (プログラム) を実行して各種の機能部として作用する汎用的なプ ロセツサである C P U (Central Processing Unit) 、 F PGA (Field Prog rammable Gate Array) などの製造後に回路構成を変更可能なプロセッサであ るプログラマブルロジックデバイス (Programmable Logic Device : P L D)
、 AS I C (Application Specific Integrated Circuit) などの特定の処理 を実行させるために専用に設計された回路構成を有するプロセッサである専 用電気回路などが含まれる。
[0059] 1つの処理部は、 これら各種のプロセッサのうちの 1つで構成されていて もよいし、 同種又は異種の 2つ以上のプロセッサ (例えば、 複数の F PGA 、 あるいは C P Uと F P G Aの組み合わせ) で構成されてもよい。 また、 複 数の機能部を 1つのプロセッサで構成してもよい。 複数の機能部を 1つのプ ロセッサで構成する例としては、 第 1 に、 クライアントやサーバなどのコン ピュータに代表されるように、 1つ以上の C P Uとソフトウェアの組合せで 1つのプロセッサを構成し、 このプロセッサが複数の機能部として作用させ る形態がある。 第 2に、 システムオンチップ (System On Chip : S oC) な どに代表されるように、 複数の機能部を含むシステム全体の機能を 1つの丨 C (Integrated Ci rcui t) チップで実現するプロセッサを使用する形態があ る。 このように、 各種の機能部は、 ハードウェア的な構造として、 上記各種 のプロセッサを 1つ以上用いて構成される。
[0060] <第 1の実施形態>
次に第 1の実施形態に関して説明する。 本例では、 対象枠の位置に対して 不感帯が設定される。
[0061] 図 4は、 撮像装置 1 0に搭載される画像表示装置 1 1の主な機能構成例を 示すブロック図である。 画像表示装置 1 1は、 画像取得部 1 〇 1、 対象検出 部 1 03、 対象枠決定部 1 05、 不感帯決定部 1 〇 7、 表示制御部 1 09、 情報追加部 1 1 1、 記憶部 260、 及びモニタ 30を備える。 画像取得部 1 01、 対象検出部 1 03、 対象枠決定部 1 05、 不感帯決定部 1 07、 表示 制御部 1 09、 及び情報追加部 1 1 1は、 C P U 240で実現される。
[0062] 画像取得部 1 01は、 連続する画像を取得する。 具体的には、 画像取得部 \¥02020/174911 12 卩(:171?2020/001159
1 0 1は、 /〇変換器 2 3 0から出力される連続する画像を取得する。 例 えば画像取得部 1 0 1は、 撮像装置 1 0で撮影された複数のフレーム画像で 構成されたライブビュー画像を取得する。
[0063] 対象検出部 1 0 3は、 取得した画像から対象を検出する。 例えば、 対象検 出部 1 0 3は、 公知の技術を使用して人の顔を検出する。 対象検出部 1 0 3 は、 画像において人の顔を検出し、 例えば位置座標で構成される位置情報を 取得する。 また、 対象検出部 1 0 3は、 顔以外の物体も検出することができ る。 例えば、 対象検出部 1 0 3は、 瞳を検出することができる。
[0064] 対象枠決定部 1 0 5は、 画像中の最新の画像から対象の範囲である対象枠 を決定する。
対象枠決定部 1 0 5は、 画像取得部 1 0 1で取得された複数の画像のそれぞ れにおいて検出された対象についての対象枠を決定する。 対象枠は、 検出さ れた対象をユーザに報知するためのものであり、 様々な形状を採用すること ができる。 対象枠は例えば正方形を含む矩形であり、 また、 対象枠は例えば 真円を含む楕円である。
[0065] 不感帯決定部 1 〇 7は、 対象枠の表示に関する不感帯を決定する。 不感帯 決定部 1 0 7は、 例えば対象枠の位置に対する不感帯を決定する。 ここで対 象枠の表示に関する不感帯とは、 対象枠 (又は対象) が不感帯の範囲内を動 く場合には、 表示させる対象枠は対象に追従させずに一定とし、 対象枠 (又 は対象) が不感帯の範囲外を動く場合には、 表示させる対象枠は対象に追従 させる (対象に対応した対象枠とする) 。
[0066] 図 5及び図 6は、 不感帯決定部 1 0 7で決定された不感帯について説明す る図である。
図 5及び図 6には、 番目のフレームにおいて対象検出部 1 0 3で検出され た顔 1 2 5、 顔 1 2 5に応じて対象枠決定部 1 0 5で決定された対象枠 1 2 1、 及び不感帯決定部 1 〇 7で決定された不感帯 1 2 0が示されている。 ま た、 + 1番目のフレームにおいて対象検出部 1 0 3で検出された顏 1 2 7 、 顔 1 2 7に応じて対象枠決定部 1 0 5で決定された対象枠 1 2 3が示され \¥02020/174911 13 卩(:171?2020/001159
ている。 なお、 本例の場合は、 顔 1 2 5及び顔 1 2 7には同様の位置関係で 対象枠 1 2 1及び対象枠 1 2 3がそれぞれ決定される。 また、 本例の場合、 対象の位置又は対象枠の位置の基準点は、 対象枠の左上隅の基準点巳 1 (対 象枠 1 2 1) 及び基準点巳 2 (対象枠 1 2 3) である。
[0067] 図 5に示した場合では、 番目のフレームにおいて設定された不感帯 1 2
0の範囲内に、 1·! + 1番目のフレームで検出された顏 1 2 7が位置している 。 すなわち、 门 + 1番目の基準点巳 2は、 不感帯 1 2 0の範囲内である。 し たがって、 门 + 1番目のフレームにおいても対象枠 1 2 1が表示されること になる。
[0068] 図 6に示した場合では、 番目のフレームにおいて設定された不感帯 1 2
2の範囲外に、 1^ + 1番目のフレームで検出された顏 1 2 7が位置している 。 すなわち、 门 + 1番目の基準点巳 2は、 不感帯 1 2 2の範囲外である。 し たがって、
Figure imgf000015_0001
+ 1番目のフレームにおいては、 顏 1 2 7に対応する対象枠 1 2 1が表示されることになる。
[0069] このように、 検出される対象の位置に対して不感帯を設定することにより 、 対象の微小の動きには対象枠の表示を移動させずに安定的な表示を行うこ とができ、 且つ不感帯を超える対象の移動には追従性良く対象枠を表示させ ることができる。
[0070] また、 不感帯決定部 1 〇 7は、 不感帯の位置及び/又は大きさを検出され た対象によって変更することができる。 すなわち、 不感帯決定部 1 0 7は検 出された対象の位置に応じて、 不感帯の位置及び大きさを変更することがで きる。 さらに、 不感帯決定部 1 0 7は、 対象の動きに応じて不感帯の幅を変 更することができる。 不感帯決定部 1 0 7は、 位置情報と前回の不感帯とに 基づいて、 対象の動き判定を行い、 動き判定の結果に基づいて不感帯 (前回 の不感帯) を変更する。 例えば、 不感帯決定部 1 0 7は、 動き判定の結果が 第 1の方向を示す場合には、 第 1の方向の不感帯を小さくする。 すなわち、 検出した対象が移動している方向には不感帯の幅を小さく設定して、 対象枠 の対象への追従性を向上させている。 また、 不感帯決定部 1 0 7は、 動き判 \¥02020/174911 14 卩(:171?2020/001159
定の結果が第 1の方向を示さない場合には、 第 1の方向の不感帯を大きくす る。 すなわち、 検出した対象が移動していない方向には不感帯の幅を大きく 設定して、 対象枠の表示の安定性を向上させている。
[0071 ] 図 7は、 不感帯決定部 1 〇 7が決定する不感帯の具体例を示す図である。
なお、 図 7に示す場合では、 図中の X軸の正方向と負方向に不感帯が決定さ れている。
[0072] 図 7 ( ) に示す場合は、 前回の対象枠の表示位置 と正方向と負方向の 不感帯の幅が同じ場合である。 このように、 対象がどちらに動くか不明な場 合に、 正方向及び負方向で不感帯の幅が同じに設定することにより、 適切な 対象枠の表示を行うことができる。 例えば、 不感帯の初期値は一定として、 画角の中心から正方向及び負方向で同じ幅の不感帯を設けてもよい。 図 7 ( B) に示す場合は、 不感帯の幅を全体的に大きく した場合である。
図 7 (〇 に示す場合は、 不感帯の幅を全体的に小さく した場合である。 図 7 (巳) に示すように、 不感帯の幅を全体的に大きくすると対象枠の表示の 安定性が向上し、 図 7 (〇 に示すように、 不感帯の幅を全体的に小さくす ると対象枠の表示の追従性が向上する。
図 7 (0) に示す場合は、 不感帯決定部 1 0 7の動き判定において、 対象が 正方向に動いたと判定され、 正方向の不感帯の幅を小さく した場合である。 また、 図 7 (0) に示す場合では、 対象が負方向に動いていないと判定され 、 負方向の不感帯の幅を大きく した場合である。 図 7 (巳) に示す場合は、 不感帯決定部 1 0 7の動き判定において、 対象が負方向に動いたと判定され 、 負方向の不感帯の幅を小さく した場合である。 また、 図 7 (巳) に示す場 合では、 対象が正方向に動いていないと判定され、 正方向の不感帯の幅を大 きく した場合である。
[0073] このように、 不感帯決定部 1 0 7は、 対象の動きに応じて不感帯の位置や 大きさを変更することにより、 対象枠を安定的に且つ追従性が良く表示する ことができる。
[0074] 図 4に戻って、 記憶部 2 6 0は、 一画像前の画像から決定した対象枠に相 \¥02020/174911 15 卩(:171?2020/001159
当する前回の対象枠、 及び、 _画像前の画像から決定した不感帯に相当する 前回の不感帯を記憶する。
具体的には図 5及び図 6で説明した n番目のフレームにおける対象枠 1 2 1 及び不感帯 1 2 0 (不感帯 1 2 2) を記憶する。 記憶部 2 6 0に記憶された 前回の対象枠及び前回の不感帯は、 表示制御部 1 0 9の制御に用いられる。 記憶部 2 6 0に記憶される情報は、 画像毎に更新されても良いし、 各画像の 情報が蓄積されても良い。
[0075] 表示制御部 1 0 9は、 モニタ 3 0への表示を制御する。 モニタ 3 0は、 ラ イブビュー画像、 記録動画、 及び静止画が表示される。 また、 表示制御部 1 0 9は、 ライブビュー画像又は記録動画に重畳させて対象枠を表示する。 表 示制御部 1 0 9は、 対象の位置が、 前回の不感帯の範囲外の場合には、 対象 枠を表示し、 前回の不感帯の範囲内の場合には、 前回の対象を表示する。
[0076] 情報追加部 1 1 1は、 表示制御部 1 0 9によって、 表示された対象枠の位 置情報を画像に記録する。 具体的には、 表示された対象枠の座標値をフレー ム毎に付加する。 情報追加部 1 1 1での情報追加は、 公知の手法により行わ れる。
[0077] 次に、 画像表示装置 1 1 を使用した画像表示方法 (画像表示工程) に関し て説明する。
[0078] 図 8及び図 9は、 画像表示装置 1 1 を使用した画像表示方法を示すフロー チヤートである。 本例は、 対象として顔が検出され、 検出された顔に対応す る顔枠が表示される例である。
[0079] 先ず、 画像取得部 1 0 1 により、 顔が撮影された連続するフレーム画像を 取得する (ステップ 3 1 0) 。 その後、 対象検出部 1 0 3は、 取得されたフ レームの各々において、 顔を検出し、 検出した顔の位置情報を取得する (ス テップ3 1 1) 。
[0080] 不感帯決定部 1 〇 7は、 前回の 「正 (正方向) 」 の動き判定が 「 1」 であ るか否かを判定する (ステップ 3 1 2) 。 前回の 「正」 の動き判定が 「1」 である場合には、 不感帯決定部 1 0 7は正方向に小さい不感帯幅を設定する \¥02020/174911 16 卩(:171?2020/001159
(ステップ 3 1 3) 。 一方、 前回の 「正」 の動き判定が 「0」 である場合 ( 「1」 ではない場合) には、 不感帯決定部 1 0 7は正方向に大きい不感帯幅 を設定する (ステップ 3 1 4) 。
[0081 ] 次に、 不感帯決定部 1 0 7は、 前回の 「負 (負方向) 」 の動き判定が 「1 」 であるか否かを判定する (ステップ 3 1 5) 。 前回の 「負」 の動き判定が 「1」 である場合には、 不感帯決定部 1 0 7は負方向に小さい不感帯幅を設 定する (ステップ 3 1 6) 。 一方、 前回の 「負」 の動き判定が 「0」 である 場合 ( 「 1」 ではない場合) には、 不感帯決定部 1 0 7は負方向に大きい不 感帯幅を設定する (ステップ 3 1 7) 。
[0082] 次に、 不感帯決定部 1 〇 7は、 上記の処理により設定された不感帯幅を用 いて、 前回の不感帯処理後の座標を基準に不感帯を設定する (ステップ 3 1 8) 〇
[0083] 図 9に移って、 不感帯決定部 1 〇 7は、 取得した今回の顔の位置が上述の 説明のように設定された不感帯を超えたか否かを判定する (ステップ 3 1 9 ) 。 取得した今回の顔の位置が設定された不感帯を超えた場合には、 不感帯 決定部 1 0 7は正の方向に超えたか否かを判定する (ステップ 3 2 0) 。 そ して、 不感帯決定部 1 0 7は、 今回の顔の位置が正の方向に超えた場合には 、 動き判定を 「正: 1」 「負: 0」 と設定する (ステップ 3 2 1)
。 一方、 対象検出部 1 0 3は、 今回の顔の位置が負の方向に超えた場合には 、 動き判定を 「正: 0」 「負: 1」 と設定する (ステップ 3 2 2) 。 その後 、 表示制御部 1 0 9は、 顔枠の表示用に今回の検出された位置情報を使用し て、 顏枠を表示する (ステップ 3 2 3)
[0084] —方で、 今回の顔の位置が不感帯を超えていないと判定された場合には、 今回の動き判定を 「正: 0」 「負: 0」 と設定する (ステップ 3 2 4) 。 そ して、 今回の位置情報を前回の位置情報で上書きする (ステップ 3 2 5) 。 その後、 表示制御部 1 0 9は、 顔枠の表示用に前回の位置情報を使用する ( ステップ3 2 6) 。 \¥02020/174911 17 卩(:171?2020/001159
[0085] 上述の各構成及び機能は、 任意のハードウェア、 ソフトウェア、 或いは両 者の組み合わせによって適宜実現可能である。 例えば、 上述の処理ステップ (処理手順) をコンビュータに実行させるプログラム、 そのようなプログラ ムを記録したコンピュータ読み取り可能な記録媒体 (非一時的記録媒体) 、 或いはそのようなプログラムをインストール可能なコンビュータに対しても 本発明を適用することが可能である。
[0086] 図 1 0は、 不感帯処理の具体例を示す図である。 図 1 0で示されるグラフ では、 検出対象が顔であり、 検出された顔に応じて顔枠の表示が行われるラ イブビュー画像について示している。 図 1 0において、 横軸はフレーム毎に 顔の検出を行った検出回数を示し、 縦軸は表示部における X座標を示す。 グ ラフ上の四角印で表される線は不感帯の上限値を示し、 菱形印で表される線 は検出された顔の位置 (X座標) を示し、 バツ印で表される線は処理後の顔 枠の表示用の位置 (X座標) を示し、 三角印で表される線は不感帯下限値を 示す。 なお、 顏枠の表示用の位置は枠の中心の位置の X座標を示す。 また、
X座標が大きくなる方向を正の方向、 小さくなる方向を負の方向として以下 の説明を行う。
[0087] 検出回数 1 7 0から矢印丁 1で示されるタイミングまでは、 不感帯の上限 値と不感帯の下限値との間 (不感帯内) で、 顔位置が検出されている。 した がって、 顔枠の表示は変化せずに、 顔枠は一定の位置で表示されている。
[0088] 矢印丁 2で示されるタイミングでは、 顔の位置が不感帯の上限値を超えて 検出されているので、 顏枠の表示位置は、 検出された顔の位置に応じた位置 となる。 また、 矢印丁 2で示されるタイミングでは、 矢印丁 1で示される夕 イミングでの不感帯と同じ不感帯が設定されている。 これは、 矢印丁 1で示 されるタイミングでは顔の位置が不感帯内で検出されているからである。
[0089] 矢印丁 3で示されるタイミングでは、 顔の位置が不感帯の上限値を超えて 検出されているので、 顏枠の表示位置は、 検出された顔の位置に応じた位置 となる。 また、 矢印丁 3のタイミングでは不感帯が移動し、 不感帯の幅も変 更されている。 具体的には、 矢印丁 3のタイミングでは、 矢印丁 2でのタイ \¥02020/174911 18 卩(:171?2020/001159
ミングの顏枠の表示位置を基準に、 矢印丁 2のタイミングで不感帯の上限値 を超えた位置で顔枠が表示されているので、 矢印丁 3のタイミングでは正方 向の不感帯幅は小さく変更される。
[0090] このように、 顔枠の表示に関して不感帯を設けることにより、 安定した顔 枠の表示及び検出した顔の位置への追従性を損なわないようにしている。 ま た、 上述の態様では、 不感帯の幅を前回の顔枠の表示位置を基準にして、 不 感帯の位置及び不感帯の幅を調節しているので、 より安定的で追従性のある 顔枠の表示を行うことができる。
[0091 ] <第 2の実施形態>
第 1の実施形態では位置に対する不感帯について説明を行ったが、 第 2の 実施形態においては、 対象枠の大きさに対する不感帯を設定する例について 説明を行う。 図 4で説明を行った各部は以下のような機能を本実施形態では 有する。 なお、 以下の説明では第 2の実施形態での特徴的な箇所を説明する
[0092] 対象検出部 1 0 3は、 対象を検出し、 対象の大きさ情報を検出する。 例え ば対象検出部 1 0 3は、 対象である顔を検出し、 その顔の大きさ情報 (面積 、 長さ) を検出する。
[0093] 対象枠決定部 1 0 5は、 最新の画像から対象の範囲である対象枠を決定す る。 対象枠は、 検出された対象の大きさに応じて大きさが決定される。 例え ば、 顔が検出された場合には、 検出された顔の範囲を囲むようにして対象枠 の大きさが決定される。
[0094] 不感帯決定部 1 〇 7は、 大きさ情報と前回の不感帯とに基づいて、 対象の 動き判定を行い、 動き判定の結果に基づいて前回の不感帯を変更することが できる。 不感帯決定部 1 0 7は、 動き判定の結果が第 1の方向を示す場合に は、 第 1の方向の不感帯を小さくする。 ここで不感帯決定部 1 0 7は、 正方 形の顏枠の一辺の長さを数値化し、 その数字が大きくなる方向を正方向、 小 さくなる方向を負方向として動き判定を行うことができる。
[0095] 表示制御部 1 0 9は、 対象の大きさが、 前回の不感帯の範囲外の場合には \¥02020/174911 19 卩(:171?2020/001159
、 対象枠を表示し、 前回の不感帯の範囲内の場合には、 前回の対象枠を表示 する。
[0096] 情報追加部 1 1 1は、 表示制御部 1 0 9によって、 表示された対象枠の大 きさ情報を画像に記録する。 具体的には、 表示された対象枠の大きさ (面積 又は一辺の長さ) をフレーム毎に付加する。 情報追加部 1 1 1での情報追加 は、 公知の手法により行われる。
[0097] 図 1 1は、 対象枠の大きさの不感帯に関して説明する図である。 図 1 1中 では、 対象枠 1 3 1は不感帯の下限値を示し、 対象枠 1 3 3は不感帯の上限 値を示しており、 対象枠 1 3 9は表示用の対象枠を示している。 例えば、 対 象枠 1 3 1で示される不感帯の下限値及び対象枠 1 3 3で示される不感帯の 上限値の範囲内ある対象枠 1 3 7に対応する対象が検出された場合には、 表 示制御部 1 0 9は対象枠 1 3 9を表示する。 一方、 対象枠 1 3 1で示される 不感帯の下限値及び対象枠 1 3 3で示される不感帯の上限値の範囲外にある 対象枠 1 3 5に対応する対象が検出された場合には、 表示制御部 1 0 9は、 対象枠 1 3 5を表示用の対象枠として表示する。
[0098] 次に、 画像表示装置 1 1 を使用した画像表示方法 (画像表示工程) に関し て説明する。
画像表示方法は、 連続するフレームにおいて顔を検出し、 検出した顔の位置 をユーザに報知する顔枠を連続して表示する。
[0099] 図 1 2及び図 1 3は、 画像表示装置 1 1 を使用した画像表示方法 (画像表 示工程) を示すフローチヤートである。
[0100] 先ず、 画像取得部 1 0 1 により、 顔が撮影された連続するフレーム画像を 取得する (ステップ 3 3 0) 。 その後、 対象検出部 1 0 3は、 取得されたフ レームの各々において、 顔を検出し、 検出した顔の大きさ情報を取得する ( ステップ3 3 1) 。
[0101 ] 不感帯決定部 1 0 7は、 前回の 「正 (正方向) 」 の動き判定が 「 1」 であ るか否かを判定する (ステップ 3 3 2) 。 前回の 「正」 の動き判定が 「1」 である場合には、 不感帯決定部 1 0 7は正方向に小さい不感帯幅を設定する \¥02020/174911 20 卩(:171?2020/001159
(ステップ 3 3 3) 。 一方、 前回の 「正」 の動き判定が 「0」 である場合 ( 「1」 ではない場合) には、 不感帯決定部 1 0 7は正方向に大きい不感帯幅 を設定する (ステップ 3 3 4) 。 なお、 正方向は枠が大きくなる方向を示し 、 負方向は枠が小さくなる方向を示す。
[0102] 次に、 不感帯決定部 1 〇 7は、 前回の 「負」 の動き判定が 「1」 であるか 否かを判定する (ステップ 3 3 5) 。 前回の 「負 (負方向) 」 の動き判定が 「1」 である場合には、 不感帯決定部 1 0 7は負方向に小さい不感帯幅を設 定する (ステップ 3 3 6) 。 一方、 前回の 「負」 の動き判定が 「0」 である 場合 ( 「 1」 ではない場合) には、 不感帯決定部 1 0 7は負方向に大きい不 感帯幅を設定する (ステップ 3 3 7) 。
[0103] 次に、 不感帯決定部 1 〇 7は、 上記の処理により設定された不感帯幅を用 いて、 前回の不感帯処理後の大きさを基準に不感帯を設定する (ステップ 3 3 8) 。
[0104] 図 1 3に移って、 次に、 不感帯決定部 1 〇 7は、 取得した今回の顔の大き さが今回設定された不感帯を超えたか否かを判定する (ステップ 3 3 9) 。 取得した今回の顔の大きさが今回設定された不感帯を超えた場合には、 不感 帯決定部 1 0 7は正方向に超えたか否かを判定する (ステップ 3 4 0) 。 そ して、 不感帯決定部 1 0 7は、 今回の顔の大きさが正方向に超えた場合には 、 動き判定を 「正: 1」 「負: 0」 と設定する (ステップ 3 4 1)
。 一方、 対象検出部 1 0 3は、 今回の顔の大きさが負方向に超えた場合には 、 動き判定を 「正: 0」 「負: 1」 と設定する (ステップ 3 4 2) 。 その後 、 表示制御部 1 0 9は、 顔枠の表示用に今回の検出された大きさ情報を使用 して、 顏枠を表示する (ステップ 3 4 3) 。
[0105] —方で、 今回の顔の大きさが不感帯を超えていないと判定された場合には 、 今回の動き判定を 「正: 0」 「負: 0」 と設定する (ステップ 3 4 4) 。 そして、 今回の大きさ情報を前回の大きさ情報で上書きする (ステップ 3 4 5) 。 その後、 表示制御部 1 0 9は、 顔枠の表示用に前回の大きさ情報を使 用する (ステップ 3 4 6) 。 \¥02020/174911 21 卩(:171?2020/001159
[0106] 以上で説明したように、 対象の大きさが、 前回の不感帯の範囲内の場合に は前回に表示した対象枠を表示するので、 小さい変動 (大きさの変動) では 対象枠の表示用の大きさ情報を変えずに安定的に対象枠を表示することがで きる。 また、 対象の大きさが、 前回の不感帯の範囲外の場合には、 今回検出 された対象に対応する対象枠を表示するので、 検出された対象への追従性 ( 大きさの追従性) が優れた対象枠の表示を行うことができる。
[0107] <その他>
[位置及び大きさに対する不感帯]
上述の説明においては、 第 1の実施形態において対象枠の位置に対する不 感帯に関して説明し、 第 2の実施形態においては対象枠の大きさに対する不 感帯に関して説明をした。
本発明では、 対象枠の位置及び大きさに対して不感帯を決定することもでき る。 すなわち、 対象枠の位置及び大きさに関して、 不感帯が同時に設定され る。 このように、 対象枠の位置と大きさとに関して不感帯を設定することに より、 より安定的に対象への追従性が良く対象枠の表示を行うことができる
[0108] [連続する画像]
上述の説明においては、 画像取得部 1 〇 1が取得した画像に対して、 対象 検出部 1 0 3により対象が検出され、 対象枠決定部 1 0 5により対象枠が決 定されていた。 しかし、 本発明はこの態様に限定されるものではない。 例え ば画像取得部 1 〇 1が取得する連続する画像は、 検出された対象の位置、 及 び対象の範囲である対象枠の位置に関する情報を有していてもよい。 また、 例えば画像取得部 1 〇 1が取得する連続する画像は、 検出された対象の大き さ、 及び対象の範囲である対象枠の大きさに関する情報を有していてもよい 。 この場合には、 画像表示装置 1 1 において、 取得した画像から対象の検出 (対象検出部 1 0 3) 及び対象枠の決定 (対象枠決定部 1 0 5) が不要とな る。
[0109] <スマートフォンの構成> 上述の説明では、 図 1 において撮像装置 1 0の一例として、 カメラを用い て説明をしたが、 本発明の適用はこれに限定されるものではない。 本発明を 適用可能な他の態様としては、 例えば、 カメラ機能を有する携帯電話機やス マートフォン、 P DA (Persona I Digital Assistants) 、 携帯型ゲーム機が 挙げられる。 以下、 本発明を適用可能なスマートフォンの一例について説明 する。 なお、 図 4における C P U 240は主制御部 501 に対応し、 記憶部 260は記憶部 550に対応し、 モニタ 30は表示パネル 52 1 に対応する
[0110] 図 1 4は、 スマートフォン 500の外観を示す図である。 図 1 4に示すス マートフォン 500は、 平板状の筐体 502を有し、 筐体 502の一方の面 に表示部としての表示パネル 52 1 と、 入力部としての操作パネル 522と が一体となった表示入力部 520を備えている。 また、 係る筐体 502は、 スピーカ 53 1 と、 マイクロホン 532、 操作部 540と、 カメラ部 54 1 とを備えている。 なお、 筐体 502の構成はこれに限定されず、 例えば、 表 示部と入力部とが独立した構成を採用したり、 折り畳み構造やスライ ド機構 を有する構成を採用することもできる。
[0111] 図 1 5は、 図 1 4に示すスマートフォン 500の構成を示すブロック図で ある。 図 1 5に示すように、 スマートフォンの主たる構成要素として、 基地 局と移動通信網とを介した移動無線通信を行う無線通信部 5 1 0と、 表示入 力部 520と、 通話部 530と、 操作部 540と、 カメラ部 54 1 と、 記憶 部 550と、 外部入出力部 560と、 G P S (Global Positioning System) 受信部 570と、 モーションセンサ部 580と、 電源部 590と、 主制御部 501 とを備える。
[0112] 無線通信部 5 1 0は、 主制御部 501の指示にしたがって、 移動通信網に 収容された基地局に対し無線通信を行うものである。 この無線通信を使用し て、 音声データ、 画像データ等の各種ファイルデータ、 電子メールデータな どの送受信、 We bデータ及びストリーミングデータなどの受信を行う。
[0113] 表示入力部 520は、 主制御部 501の制御により、 画像 (静止画及び動 画) や文字情報などを表示して視覚的にユーザに情報を伝達し、 表示した情 報に対するユーザ操作を検出する、 いわゆるタッチパネルであって、 表示パ ネル 52 1 と、 操作パネル 522とを備える。
[0114] 表示パネル 52 1は、 LCD (Liquid Crystal Display) , 〇 E L D (Org an i c Electro-Luminescence Display) などを表示デバイスとして用いたもの である。 操作パネル 522は、 表示パネル 52 1の表示面上に表示される画 像を視認可能に載置され、 ユーザの指や尖筆によって操作される一又は複数 の座標を検出するデバイスである。 かかるデ/《イスをユーザの指や尖筆によ って操作すると、 操作に起因して発生する検出信号を主制御部 501 に出力 する。 次いで、 主制御部 501は、 受信した検出信号に基づいて、 表示パネ ル 52 1上の操作位置 (座標) を検出する。
[0115] 図 1 4に示すように、 本発明の撮像装置 1 0の一実施形態として例示して いるスマートフォン 500の表示パネル 52 1 と操作パネル 522とは一体 となって表示入力部 520を構成しているが、 操作パネル 522が表示パネ ル 52 1 を完全に覆うような配置となっている。 かかる配置を採用した場合 、 操作パネル 522は、 表示パネル 52 1外の領域についても、 ユーザ操作 を検出する機能を備えてもよい。 換言すると、 操作パネル 522は、 表示パ ネル 52 1 に重なる重畳部分についての検出領域 (以下、 表示領域と称する ) と、 それ以外の表示パネル 52 1 に重ならない外縁部分についての検出領 域 (以下、 非表示領域と称する) とを備えていてもよい。
[0116] なお、 表示領域の大きさと表示パネル 52 1の大きさとを完全に一致させ ても良いが、 両者を必ずしも一致させる必要は無い。 また、 操作パネル 52 2が、 外縁部分と、 それ以外の内側部分の 2つの感応領域を備えていてもよ い。 さらに、 外縁部分の幅は、 筐体 502の大きさなどに応じて適宜設計さ れるものである。 また、 操作パネル 522で採用される位置検出方式として は、 マトリクススイッチ方式、 抵抗膜方式、 表面弾性波方式、 赤外線式、 電 磁誘導方式、 静電容量方式などが挙げられ、 いずれの方式を採用することも できる。 [0117] 通話部 530は、 スピーカ 53 1やマイクロホン 532を備え、 マイクロ ホン 532を通じて入力されたユーザの音声を主制御部 501 にて処理可能 な音声データに変換して主制御部 501 に出力したり、 無線通信部 5 1 0あ るいは外部入出力部 560により受信された音声データを復号してスピーカ 53 1から出力するものである。 また、 図 1 4に示すように、 例えば、 スピ 一力 53 1、 マイクロホン 532を表示入力部 520が設けられた面と同じ 面に搭載することができる。
[0118] 操作部 540は、 キースイッチなどを用いたハードウェアキーであって、 ユーザからの指示を受け付けるものである。 例えば、 図 1 4に示すように、 操作部 540は、 スマートフォン 500の筐体 502の側面に搭載され、 指 などで押下されるとオンとなり、 指を離すとパネなどの復元力によってオフ 状態となる押しボタン式のスイッチである。
[0119] 記憶部 550は、 主制御部 501の制御プログラム、 制御データ、 アプリ ケーシヨンソフトウェア、 通信相手の名称及び電話番号などを対応づけたア ドレスデータ、 送受信した電子メールのデータ、 We bブラウジングにより ダウンロードした We bデータ、 及びダウンロードしたコンテンツデータを 記憶し、 又ストリーミングデータなどを一時的に記憶するものである。 また 、 記憶部 550は、 スマートフォン内蔵の内部記憶部 55 1 と着脱自在な外 部メモリスロッ トを有する外部記憶部 552により構成される。 なお、 記憶 部 550を構成するそれぞれの内部記憶部 55 1 と外部記憶部 552は、 フ ラッシュメモリタイプ (flash memory type) 、 ハードディスクタイプ (hard disk type) 、 マルチメディアカードマイクロタイプ (multimedia card mi c ro type) 、 力ードタイプのメモリ (例えば、 Micro SD (登録商標) メモリ等 ) 、 RAM (Random Access Memory) 、 ROM (Read Only Memory) などの 記録媒体を用いて実現される。
[0120] 外部入出力部 560は、 スマートフォン 500に連結される全ての外部機 器とのインターフェースの役割を果たすものであり、 他の外部機器に通信等 (例えば、 ユニバーサルシリアルバス (US B) 、 及び丨 E E E 1 394な ど) 又はネッ トワーク (例えば、 インターネッ ト、 無線 LAN (Local Area Network) 、 ブルートウース (Bluetooth) (登録商標) 、 R F I D (Radio F requency Identification) 、 赤外線通信 (Infrared Data Assoc i at ion : I r DA) (登録商標) 、 UWB (Ultra Wideband) (登録商標) 、 ジグビー (ZigBee) (登録商標) など) により直接的又は間接的に接続するためのも のである。
[0121] スマートフォン 500に連結される外部機器としては、 例えば、 有/無線 ヘッ ドセッ ト、 有/無線外部充電器、 有/無線データポート、 力ードソケッ 卜を介して接続されるメモリカード (Memory card) 、 S 丨 M (Subscriber I dent i ty Module Card) /U I M (Userldent i ty Module Card) 力ード、 又は オーディオ · ビデオ 丨 /0 (I叩 ut/Output) 端子を介して接続される外部才 —ディオビデオ機器、 無線接続される外部オーディオビデオ機器、 有/無線 接続されるスマートフォン、 有/無線接続されるパーソナルコンピュータ、 有/無線接続される P DA、 及びイヤホンなどがある。 外部入出力部 560 は、 このような外部機器から伝送を受けたデータをスマートフォン 500の 内部の各構成要素に伝達し、 又はスマートフォン 500の内部のデータを外 部機器に伝送することが可能である。
[0122] 〇 3受信部570は、 主制御部 501の指示にしたがって、 G PS衛星
ST 1〜 ST nから送信される G PS信号を受信し、 受信した複数の G PS 信号に基づく測位演算処理を実行し、 スマートフォン 500の緯度、 経度、 及び高度からなる位置を検出する。 〇 3受信部570は、 無線通信部 5 1 0や外部入出力部 560 (例えば、 無線 LAN) から位置情報を取得できる 時には、 その位置情報を用いて位置を検出することもできる。
[0123] モーションセンサ部 580は、 例えば、 3軸の加速度センサ及びジャイロ センサなどを備え、 主制御部 501の指示にしたがって、 スマートフォン 5 00の物理的な動きを検出する。 スマートフォン 500の物理的な動きを検 出することにより、 スマートフォン 500の動く方向や加速度が検出される 。 この検出結果は、 主制御部 501 に出力されるものである。 \¥02020/174911 26 卩(:171?2020/001159
[0124] 電源部 5 9 0は、 主制御部 5 0 1 の指示にしたがって、 スマートフォン 5
0 0の各部に、 バッテリ (図示しない) に蓄えられる電力を供給するもので ある。
[0125] 主制御部 5 0 1は、 マイクロプロセッサを備え、 記憶部 5 5 0が記憶する 制御プログラム及び制御データにしたがって動作し、 スマートフォン 5 0 0 の各部を統括して制御するものである。 また、 主制御部 5 0 1は、 無線通信 部 5 1 0を通じて、 音声通信やデータ通信を行うために、 通信系の各部を制 御する移動通信制御機能及びアプリケーシヨン処理機能を備える。
[0126] アプリケーシヨン処理機能は、 記憶部 5 5 0が記憶するアプリケーシヨン ソフトウェアにしたがって主制御部 5 0 1が動作することにより実現するも のである。 アプリケーシヨン処理機能としては、 例えば、 外部入出力部 5 6 0を制御して対向機器とデータ通信を行う赤外線通信機能や、 電子メールの 送受信を行う電子メール機能、
Figure imgf000028_0001
匕ぺージを閲覧する
Figure imgf000028_0002
匕ブラウジング 機能、 本発明に係る圧縮処理を行う画像処理機能などがある。
[0127] また、 主制御部 5 0 1は、 受信データやダウンロードしたストリーミング データなどの画像データ (静止画や動画のデータ) に基づいて、 映像を表示 入力部 5 2 0に表示する等の画像処理機能を備える。 画像処理機能とは、 主 制御部 5 0 1が、 上記画像データを復号し、 係る復号結果に画像処理を施し て、 画像を表示入力部 5 2 0に表示する機能のことをいう。
[0128] さらに、 主制御部 5 0 1は、 表示パネル 5 2 1 に対する表示制御と、 操作 部 5 4 0、 操作パネル 5 2 2を通じたユーザ操作を検出する操作検出制御を 実行する。
[0129] 表示制御の実行により、 主制御部 5 0 1は、 アプリケーシヨンソフトウェ アを起動するためのアイコン及びスクロールバーなどのソフトウェアキーを 表示したり、 或いは電子メールを作成するためのウィンドウを表示する。 な お、 スクロールバーとは、 表示パネル 5 2 1の表示領域に収まりきれない大 きな画像などについて、 画像の表示部分を移動する指示を受け付けるための ソフトウェアキーのことをいう。 [0130] また、 操作検出制御の実行により、 主制御部 501は、 操作部 540を通 じたユーザ操作を検出したり、 操作パネル 522を通じてアイコンに対する 操作、 及びウィンドウの入力欄に対する文字列の入力を受け付け、 或いはス クロールバーを通じた表示画像のスクロール要求を受け付ける。
[0131] さらに、 操作検出制御の実行により主制御部 501は、 操作パネル 522 に対する操作位置が、 表示パネル 52 1 に重なる重畳部分 (表示領域) か、 それ以外の表示パネル 52 1 に重ならない外縁部分 (非表示領域) かを判定 し、 操作パネル 522の感応領域及びソフトウェアキーの表示位置を制御す るタッチパネル制御機能を備える。
[0132] また、 主制御部 501は、 操作パネル 522に対するジェスチヤ操作を検 出し、 検出したジェスチヤ操作に応じて、 予め設定された機能を実行するこ ともできる。 ジェスチヤ操作とは、 従来の単純なタッチ操作ではなく、 指な どによって軌跡を描いたり、 複数の位置を同時に指定したり、 或いはこれら を組合せて、 複数の位置から少なくとも 1つについて軌跡を描く操作を意味 する。
[0133] カメラ部 54 1は、 CMOS (Complementary Meta I Oxide Semiconductor ) や CCD
(Charge-Coupled Device) などの撮像素子を用いて電子撮影するデジタルカ メラであり、 図 1 に示した撮像装置 1 〇に相当する。 また、 カメラ部 54 1 は、 主制御部 501の制御により、 撮影によって得た静止画の画像データを 、 例えば」 P EG (Joint Photographic coding Experts Group) で圧縮し、 又は動画の画像データを、 例えば H. 264/A VCで圧縮して記憶部 55 0に記録したり、 外部入出力部 560や無線通信部 5 1 0を通じて出力する ことができる。 図 1 4に示すようにスマートフオン 500において、 カメラ 部 54 1は表示入力部 520と同じ面に搭載されているが、 カメラ部 54 1 の搭載位置はこれに限らず、 表示入力部 520の背面に搭載されてもよいし 、 或いは、 複数のカメラ部 54 1が搭載されてもよい。 なお、 複数のカメラ 部 54 1が搭載されている場合、 撮影に供するカメラ部 54 1 を切り替えて \¥02020/174911 28 卩(:171?2020/001159
単独にて撮影したり、 或いは、 複数のカメラ部 5 4 1 を同時に使用して撮影 することもできる。
[0134] また、 カメラ部 5 4 1はスマートフォン 5 0 0の各種機能に利用すること ができる。 例えば、 表示パネル 5 2 1 にカメラ部 5 4 1で取得した画像を表 示することや、 操作パネル 5 2 2の操作入力のひとつとして、 カメラ部 5 4 1の画像を利用することができる。 また、 ◦ 3受信部 5 7 0が位置を検出 する際に、 カメラ部 5 4 1からの画像を参照して位置を検出することもでき る。 更には、 カメラ部 5 4 1からの画像を参照して、 3軸の加速度センサを 用いずに、 或いは、 3軸の加速度センサ (ジャイロセンサ) と併用して、 ス マートフォン 5 0 0のカメラ部 5 4 1の光軸方向を判断することや、 現在の 使用環境を判断することもできる。 勿論、 カメラ部 5 4 1からの画像をアブ リケーシヨンソフトウェア内で利用することもできる。
[0135] その他、 静止画又は動画の画像データに◦ 3受信部 5 7 0により取得し た位置情報、 マイクロホン 5 3 2により取得した音声情報 (主制御部等によ り、 音声テキスト変換を行ってテキスト情報となっていてもよい) 、 モーシ ヨンセンサ部 5 8 0により取得した姿勢情報等などを付加して記憶部 5 5 0 に記録したり、 外部入出力部 5 6 0や無線通信部 5 1 0を通じて出力するこ ともできる。
[0136] 以上で本発明の例に関して説明してきたが、 本発明は上述した実施の形態 に限定されず、 本発明の精神を逸脱しない範囲で種々の変形が可能であるこ とは言うまでもない。 符号の説明
[0137] 1 :ストロボ
2 :シャッタボタン
3 :電源/モードスイッチ
4 :モードダイヤル
5 : ズームボタン
6 :十字ボタン \¥02020/174911 29 卩(:171?2020/001159
7 : IV!巳 11/0<ボタン
8 :再生ボタン
9 : 巳八〇<ボタン
1 0 :撮像装置
1 1 :画像表示装置
1 2 :撮影レンズ
30 :モニタ
1 〇 1 :画像取得部
1 03 :対象検出部
1 05 :対象枠決定部
1 07 :不感帯決定部
1 09 :表示制御部
1 1 0 :ズームレンズ
1 1 1 :情報追加部
1 40 : レンズ駆動部
1 50 : フォーカスレンズ
2 1 0 :撮像素子
230 : /〇変換器
240 : 091\
250 :操作部
260 :記憶部

Claims

\¥02020/174911 30 卩(:171?2020/001159 請求の範囲
[請求項 1 ] 画像表示装置であって、
連続する画像を取得する画像取得部と、
前記画像から対象を検出する対象検出部と、
前記画像中の最新の画像から前記対象の範囲である対象枠を決定す る対象枠決定部と、
前記対象枠の位置に対する不感帯を決定する不感帯決定部と、
_画像前の画像から決定した前記対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決定した前記不感帯に相当する前回の不感 帯を記憶する記憶部と、
前記対象の位置が、 前記前回の不感帯の範囲外の場合には、 前記対 象枠を表示し、 前記前回の不感帯の範囲内の場合には、 前記前回の対 象枠を表示する表示制御部と、
を備える画像表示装置。
[請求項 2] 前記対象検出部は、 前記対象の位置情報を検出し、
前記不感帯決定部は、 前記位置情報に基づいて、 前記不感帯を変更 する請求項 1 に記載の画像表示装置。
[請求項 3] 前記不感帯決定部は、 前記位置情報と前記前回の不感帯とに基づい て、 前記対象の動き判定を行い、 前記動き判定の結果に基づいて前記 前回の不感帯を変更する請求項 2に記載の画像表示装置。
[請求項 4] 画像表示装置であって、
連続する画像を取得する画像取得部と、
前記画像から対象を検出する対象検出部と、
前記画像中の最新の画像から前記対象の範囲である対象枠を決定す る対象枠決定部と、
前記対象枠の大きさに対する不感帯を決定する不感帯決定部と、
_画像前の画像から決定した前記対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決定した前記不感帯に相当する前回の不感 \¥02020/174911 31 卩(:171?2020/001159
帯を記憶する記憶部と、
前記対象の大きさが、 前記前回の不感帯の範囲外の場合には、 前記 対象枠を表示し、 前記前回の不感帯の範囲内の場合には、 前記前回の 対象枠を表示する表示制御部と、
を備える画像表示装置。
[請求項 5] 前記対象検出部は、 前記対象の大きさ情報を検出し、
前記不感帯決定部は、 前記大きさ情報に基づいて、 前記不感帯を変 更する請求項 4に記載の画像表示装置。
[請求項 6] 前記不感帯決定部は、 前記大きさ情報と前記前回の不感帯とに基づ いて、 前記対象の動き判定を行い、 前記動き判定の結果に基づいて前 記前回の不感帯を変更する請求項 5に記載の画像表示装置。
[請求項 7] 前記不感帯決定部は、 前記動き判定の結果が第 1の方向を示す場合 には、 前記第 1の方向の前記不感帯を小さくする請求項 3又は 6に記 載の画像表示装置。
[請求項 8] 前記不感帯決定部は、 前記動き判定の結果が第 1の方向を示さない 場合には、 前記第 1の方向の前記不感帯を大きくする請求項 7に記載 の画像表示装置。
[請求項 9] 前記不感帯の変更は、 前記不感帯の位置又は大きさを、 前記対象検 出部で検出された前記対象によって変更する請求項 2、 3、 及び 5か ら 8のいずれか 1項に記載の画像表示装置。
[請求項 10] 画像表示装置であって、
連続する画像であって、 検出された対象の位置、 及び前記対象の範 囲である対象枠の位置に関する情報を有する画像を取得する画像取得 部と、
前記対象枠の位置に対する不感帯を決定する不感帯決定部と、
_画像前の画像から決定した前記対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決定した前記不感帯に相当する前回の不感 帯を記憶する記憶部と、 \¥02020/174911 32 卩(:171?2020/001159
前記対象の位置が、 前記前回の不感帯の範囲外の場合には、 前記対 象枠を表示し、 前記前回の不感帯の範囲内の場合には、 前記前回の対 象枠を表示する表示制御部と、
を備える画像表示装置。
[請求項 1 1 ] 画像表示装置であって、
連続する画像であって、 検出された対象の大きさ、 及び前記対象の 範囲である対象枠の大きさに関する情報を有する画像を取得する画像 取得部と、
前記対象枠の大きさに対する不感帯を決定する不感帯決定部と、
_画像前の画像から決定した前記対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決定した前記不感帯に相当する前回の不感 帯を記憶する記憶部と、
前記対象の大きさが、 前記前回の不感帯の範囲外の場合には、 前記 対象枠を表示し、 前記前回の不感帯の範囲内の場合には、 前記前回の 対象枠を表示する表示制御部と、
を備える画像表示装置。
[請求項 12] 前記表示制御部によって、 表示された前記対象枠の位置情報又は大 きさ情報を画像に記録する情報追加部を備える請求項 1から 1 1のい ずれか 1項に記載の画像表示装置。
[請求項 13] 前記不感帯は前記対象枠に対する不感帯幅であり、 前記不感帯の初 期値は、 一定である請求項 1から 1 2のいずれか 1項に記載の画像表 示装置。
[請求項 14] 前記対象検出部が検出する前記対象は物体である請求項 1から 1 3 のいずれか 1項に記載の画像表示装置。
[請求項 15] 前記物体は、 顔又は瞳である請求項 1 4に記載の画像表示装置。
[請求項 16] 前記対象枠は矩形である請求項 1から 1 5のいずれか 1項に記載の 画像表示装置。
[請求項 17] 前記対象枠は楕円である請求項 1から 1 6のいずれか 1項に記載の \¥02020/174911 33 卩(:171?2020/001159
画像表示装置。
[請求項 18] 画像表示方法であって、
連続する画像を取得するステップと、
前記画像から対象を検出するステップと、
前記画像中の最新の画像から前記対象の範囲である対象枠を決定す るステップと、
前記対象枠の位置に対する不感帯を決定するステップと、
_画像前の画像から決定した前記対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決定した前記不感帯に相当する前回の不感 帯を記憶するステップと、
前記対象の位置が、 前記前回の不感帯の範囲外の場合には、 前記対 象枠を表示し、 前記前回の不感帯の範囲内の場合には、 前記前回の対 象枠を表示するステップと、
を含む画像表示方法。
[請求項 19] 画像表示方法であって、
連続する画像を取得するステップと、
前記画像から対象を検出するステップと、
前記画像中の最新の画像から前記対象の範囲である対象枠を決定す るステップと、
前記対象枠の大きさに対する不感帯を決定するステップと、
_画像前の画像から決定した前記対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決定した前記不感帯に相当する前回の不感 帯を記憶するステップと、
前記対象の大きさが、 前記前回の不感帯の範囲外の場合には、 前記 対象枠を表示し、 前記前回の不感帯の範囲内の場合には、 前記前回の 対象枠を表示するステップと、
を含む画像表示方法。
[請求項 20] 画像表示工程をコンピュータに実行させるプログラムであって、 \¥02020/174911 34 卩(:171?2020/001159
連続する画像を取得するステップと、
前記画像から対象を検出するステップと、
前記画像中の最新の画像から前記対象の範囲である対象枠を決定す るステップと、
前記対象枠の位置に対する不感帯を決定するステップと、
_画像前の画像から決定した前記対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決定した前記不感帯に相当する前回の不感 帯を記憶するステップと、
前記対象の位置が、 前記前回の不感帯の範囲外の場合には、 前記対 象枠を表示し、 前記前回の不感帯の範囲内の場合には、 前記前回の対 象枠を表示するステップと、
を含む画像表示工程をコンピュータに実行させるプログラム。
[請求項 21 ] 画像表示工程をコンピュータに実行させるプログラムであって、 連続する画像を取得するステップと、
前記画像から対象を検出するステップと、
前記画像中の最新の画像から前記対象の範囲である対象枠を決定す るステップと、
前記対象枠の大きさに対する不感帯を決定するステップと、
_画像前の画像から決定した前記対象枠に相当する前回の対象枠、 及び、 _画像前の画像から決定した前記不感帯に相当する前回の不感 帯を記憶するステップと、
前記対象の大きさが、 前記前回の不感帯の範囲外の場合には、 前記 対象枠を表示し、 前記前回の不感帯の範囲内の場合には、 前記前回の 対象枠を表示するステップと、
を含む画像表示工程をコンピュータに実行させるプログラム。
PCT/JP2020/001159 2019-02-28 2020-01-16 画像表示装置、画像表示方法、及びプログラム WO2020174911A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021501692A JP7186854B2 (ja) 2019-02-28 2020-01-16 画像表示装置、画像表示方法、及びプログラム
JP2022190713A JP2023024485A (ja) 2019-02-28 2022-11-29 画像表示装置、画像表示方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019036375 2019-02-28
JP2019-036375 2019-02-28

Publications (1)

Publication Number Publication Date
WO2020174911A1 true WO2020174911A1 (ja) 2020-09-03

Family

ID=72239331

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/001159 WO2020174911A1 (ja) 2019-02-28 2020-01-16 画像表示装置、画像表示方法、及びプログラム

Country Status (2)

Country Link
JP (2) JP7186854B2 (ja)
WO (1) WO2020174911A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221108A (ja) * 2010-04-06 2011-11-04 Canon Inc 撮像装置及び撮像装置の制御方法
JP2012124797A (ja) * 2010-12-10 2012-06-28 Canon Inc 撮影装置
WO2016151925A1 (ja) * 2015-03-26 2016-09-29 富士フイルム株式会社 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム
WO2016167016A1 (ja) * 2015-04-14 2016-10-20 ソニー株式会社 画像処理装置、画像処理方法、および画像処理システム
JP2017092592A (ja) * 2015-11-05 2017-05-25 キヤノン株式会社 追尾制御装置および追尾制御方法、光学機器、撮像装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833461B2 (ja) * 2015-12-08 2021-02-24 キヤノン株式会社 制御装置および制御方法、撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221108A (ja) * 2010-04-06 2011-11-04 Canon Inc 撮像装置及び撮像装置の制御方法
JP2012124797A (ja) * 2010-12-10 2012-06-28 Canon Inc 撮影装置
WO2016151925A1 (ja) * 2015-03-26 2016-09-29 富士フイルム株式会社 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム
WO2016167016A1 (ja) * 2015-04-14 2016-10-20 ソニー株式会社 画像処理装置、画像処理方法、および画像処理システム
JP2017092592A (ja) * 2015-11-05 2017-05-25 キヤノン株式会社 追尾制御装置および追尾制御方法、光学機器、撮像装置

Also Published As

Publication number Publication date
JP7186854B2 (ja) 2022-12-09
JP2023024485A (ja) 2023-02-16
JPWO2020174911A1 (ja) 2021-12-02

Similar Documents

Publication Publication Date Title
US10757322B2 (en) Method of setting initial position of camera, camera, and camera system
US10560624B2 (en) Imaging control device, imaging control method, camera, camera system, and program
CN106716989B (zh) 摄像装置、摄像方法及程序
WO2013136607A1 (ja) プロジェクタ付き撮影装置及びその制御方法
WO2021219141A1 (zh) 拍照方法、图形用户界面及电子设备
WO2016103962A1 (ja) 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
JP6360204B2 (ja) カメラ装置、撮像システム、制御方法及びプログラム
WO2020078273A1 (zh) 一种拍摄方法及电子设备
US11438521B2 (en) Image capturing device, image capturing method, and program
JPWO2017209252A1 (ja) 撮像装置、合焦制御方法、及び、合焦制御プログラム
US20240015404A1 (en) Imaging device, imaging method, and imaging program
JP6374535B2 (ja) 操作装置、追尾システム、操作方法、及びプログラム
JP6205068B2 (ja) 撮像装置の操作装置、操作方法、及びプログラム
WO2020209097A1 (ja) 画像表示装置、画像表示方法、及びプログラム
WO2020174911A1 (ja) 画像表示装置、画像表示方法、及びプログラム
WO2020170945A1 (ja) 表示制御装置、撮像装置、表示制御方法、及び表示制御プログラム
JP6414742B2 (ja) 撮影装置、撮影方法及びプログラム
JP5932862B2 (ja) デジタルカメラの撮像方法及びコンピュータが実行可能なプログラム
JP6840903B2 (ja) 撮像装置、撮像方法、及びプログラム
WO2020066316A1 (ja) 撮影装置、撮影方法、及びプログラム
WO2024087804A1 (zh) 切换摄像头的方法与电子设备
WO2020158200A1 (ja) 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20762555

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501692

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20762555

Country of ref document: EP

Kind code of ref document: A1