WO2023189218A1 - 情報処理装置、情報処理方法、記録媒体 - Google Patents

情報処理装置、情報処理方法、記録媒体 Download PDF

Info

Publication number
WO2023189218A1
WO2023189218A1 PCT/JP2023/008151 JP2023008151W WO2023189218A1 WO 2023189218 A1 WO2023189218 A1 WO 2023189218A1 JP 2023008151 W JP2023008151 W JP 2023008151W WO 2023189218 A1 WO2023189218 A1 WO 2023189218A1
Authority
WO
WIPO (PCT)
Prior art keywords
gaze
imaging
area
point
information processing
Prior art date
Application number
PCT/JP2023/008151
Other languages
English (en)
French (fr)
Inventor
恵一朗 谷口
卓郎 野田
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023189218A1 publication Critical patent/WO2023189218A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Definitions

  • the present technology relates to an information processing device, a method thereof, and a recording medium on which a program is recorded, and particularly relates to an information processing technology for controlling imaging.
  • a variety of devices are becoming popular as imaging devices. For example, in recent years, it has become common practice to take images using a smartphone equipped with a camera.
  • Patent Document 1 can be mentioned as related conventional technology.
  • Patent Document 1 listed below discloses a technique for detecting an object that a user is gazing at based on the results of eye tracking of the user.
  • the user For imaging using a portable imaging device such as a smartphone, the user holds the imaging device so that it faces the object, and the user directly points at the object rather than through the screen of the imaging device. In some cases, so-called “imaging while viewing” is performed.
  • This technology was developed in consideration of the above circumstances, and even when so-called “while imaging” is performed, it is possible to provide a captured image that appropriately captures the object that the user is looking at.
  • the purpose of this invention is to realize an imaging control technique suitable for performing "while imaging".
  • the information processing device uses distance measurement information indicating a distance measurement result for a predetermined range including an imaging range that is a target range of imaging in real space, and estimated information of a user's line of sight and eye position.
  • a detection unit that detects the user's gaze point in the real space based on the gaze point
  • a control unit that performs control related to the imaging using information on the gaze area set based on the gaze point.
  • the "imaging-related control" mentioned here includes, for example, control related to recording of captured images, control related to displaying captured images, adjustment control of various parameters related to imaging, such as focus, zoom, exposure, etc. It broadly refers to control related to imaging, such as control of notification of various information related to imaging.
  • the user holds the imaging device so as to face the target object and captures an image while looking directly at the target object rather than through the screen of the imaging device, which is so-called "while imaging”. Even if the object of interest is captured, the control unit performs control related to imaging using information on the user's gaze area, so that the user is provided with a captured image that appropriately captures the gaze object. Become.
  • the information processing device collects distance measurement information indicating a distance measurement result targeting a predetermined range including an imaging range that is an imaging target range in real space, and a user's line of sight and An information processing method that detects a gaze point of the user in the real space based on estimated information of eye positions, and controls the imaging using information on a gaze area set based on the gaze point. be.
  • Such an information processing method also provides the same effect as the information processing device according to the present technology described above.
  • the recording medium according to the present technology is a recording medium in which a program readable by a computer device is recorded, and the recording medium is a recording medium that records distance measurement results for a predetermined range including an imaging range that is a target range for imaging in real space. Detecting the user's gaze point in the real space based on distance measurement information indicating the user's line of sight and estimated eye position information, and using information on a gaze area set based on the gaze point, The storage medium is a recording medium in which a program for causing the computer device to execute a process for controlling the imaging is recorded. With such a recording medium, the information processing device according to the present technology described above can be realized.
  • FIG. 1 is a block diagram showing a configuration example of an information processing device as a first embodiment according to the present technology.
  • FIG. 2 is an explanatory diagram of a three-dimensional map generation method based on ranging information (distance image).
  • FIG. 3 is an explanatory diagram of an example of setting a gaze area.
  • FIG. 6 is an explanatory diagram of an example of displaying an extracted image of a gaze area.
  • FIG. 7 is a diagram illustrating a relationship between an imaging range and a gaze area when a gaze object is about to go out of frame.
  • FIG. 7 is an explanatory diagram of a display example when a gazed object is about to go out of frame.
  • FIG. 7 is an explanatory diagram of a display example when a gaze point does not exist in a captured image.
  • FIG. 3 is an explanatory diagram of a first example of stepwise change control of a gaze area.
  • FIG. 7 is an explanatory diagram of a second example of stepwise change control of the gaze area.
  • FIG. 7 is a diagram illustrating an example of display transition when switching to a gaze area of another object.
  • 5 is a flowchart showing an example of processing related to recording of captured images in the first embodiment.
  • 12 is a flowchart of the gaze point detection/setting process shown in FIG. 11.
  • 5 is a flowchart showing an example of processing related to displaying a captured image in the first embodiment.
  • FIG. 2 is a block diagram showing a configuration example of an information processing device as a second embodiment.
  • 12 is a flowchart illustrating an example of processing related to recording of captured images in the second embodiment.
  • 16 is a flowchart of the gaze point detection/setting process shown in FIG. 15.
  • First embodiment> (1-1. Configuration example of information processing device) (1-2. Imaging control method as first embodiment) (1-3. Processing procedure) ⁇ 2.
  • Second embodiment> ⁇ 3.
  • Modified example> ⁇ 4. Summary of embodiments> ⁇ 5. This technology>
  • FIG. 1 is a block diagram showing a configuration example of an information processing device 1 as a first embodiment according to the present technology.
  • the description will be given on the premise that the information processing device 1 takes the form of a smartphone, but as will be described later, the information processing device according to the present technology can take a device form other than a smartphone.
  • the information processing device 1 includes a self-position/orientation estimation section 2, a distance measurement section 3, a camera section 4, a calculation section 5, a line of sight/eye position estimation section 6, a display section 7, a memory section 8, and an operation section. It has 9.
  • the self-position/orientation estimating unit 2 estimates the self-position and orientation of the information processing device 1.
  • the self-position/orientation estimating section 2 includes an IMU (Inertial Measurement Unit), and estimates the self-position and orientation of the information processing device 1 based on the detection information of the IMU.
  • the self-position here is estimated as position information in a real space coordinate system (world coordinate system). Further, as posture information, information indicating the inclination of the information processing device 1 in each of the yaw, pitch, and roll directions is detected.
  • the distance measurement unit 3 obtains distance measurement information indicating the distance measurement results for a predetermined range in real space.
  • the distance measuring unit 3 performs distance measurement using a ToF (Time of Flight) method, which is a type of LiDAR (Light Detection and Ranging) method.
  • ToF Time of Flight
  • LiDAR Light Detection and Ranging
  • distance measurement is performed based on the results of projecting light in a predetermined wavelength band, such as infrared light, into the space to be measured, and receiving the reflected light from the target.
  • a sensor in which pixels each having a light receiving element are arranged two-dimensionally is used as the distance measuring sensor.
  • the distance measurement process is a process of calculating the distance to the target for each pixel by performing a predetermined calculation based on the light reception signal for each pixel. In other words, it is performed as a process to obtain a distance image, which is an image indicating the distance to the object for each pixel.
  • the above-described predetermined range over which the distance measuring unit 3 performs distance measurement in real space is determined to include at least the imaging range that is the target range for imaging by the camera unit 4.
  • the distance measurement results are designed to be obtained for at least objects existing within the imaging range of the camera section 4.
  • the camera unit 4 is configured with an image sensor such as a CCD (Charge Coupled Devices) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, and obtains a captured image.
  • the image sensor included in the camera unit 4 is configured as an RGB sensor for obtaining an RGB image.
  • An RGB image means an image (color image) in which each pixel shows a brightness value of R (red), a brightness value of G (green), and a brightness value of B (blue).
  • the camera unit 4 is provided with an imaging optical system in which various optical elements such as lenses for imaging are arranged, and light from the subject is received on the light receiving surface of the image sensor via the imaging optical system.
  • the imaging optical system is provided with optical elements such as a focus lens for focusing (focus position adjustment) and an aperture. Note that the imaging optical system may be provided with a zoom lens for zooming.
  • the camera unit 4 is also provided with an image signal processing unit that performs image signal processing on the captured image obtained by the image sensor.
  • image signal processing examples include demosaic processing for the RAW image output from the image sensor, interpolation processing for defective pixels, noise reduction processing, white balance adjustment processing, and the like.
  • the imaging direction by the camera section 4 is set to be the opposite direction to the direction in which the display screen 7a of the display section 7, which will be described later, faces.
  • the arithmetic unit 5 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), etc.
  • Various functions of the information processing device 1 are realized by executing processes according to programs stored in a predetermined storage device. Note that various functions realized by the calculation unit 5 will be explained later.
  • the line of sight/eye position estimation unit 6 estimates the user's line of sight and eye position.
  • the line of sight/eye position estimating unit 6 estimates the user's line of sight direction and eye position based on a captured image of an inner camera provided in the information processing device 1.
  • the inner camera herein refers to a camera provided to capture an image in the same direction as the direction in which the display screen 7a of the display unit 7 faces. The inner camera makes it possible to image the face of the user who is holding the information processing device 1, and it is possible to estimate the user's gaze direction and eye position based on the captured image of the inner camera.
  • the information processing device 1 since the position and orientation of the information processing device 1 in the world coordinate system are estimated by the self-position/orientation estimating unit 2, the information on the position and orientation of the information processing device 1 and the inner Based on the camera parameters (focal length, etc.) of the camera, it is possible to estimate the position in the world coordinate system of the user's eyes detected in the captured image of the inner camera.
  • the configuration for estimating the user's line of sight and eye position is not limited to the configuration using the inner camera as described above.
  • a configuration can be considered in which a head-mounted device having a camera for detecting the line of sight is attached to the user's head to estimate the direction of the user's line of sight and the position of the eyes (in this case, the line of sight/eye position estimating unit 6 , and is separate from the information processing device 1).
  • the line-of-sight direction can be estimated based on images captured by a camera placed near the user's eyes.
  • the position of the user's eyes may be estimated as the position of a camera for estimating the line of sight.
  • the eye position can be roughly estimated as the user's head position, and in that case, the self-position estimated by the head-mounted device is used instead of the position of the camera for estimating the line of sight. It is also possible to use it as an estimation result of the user's eye position.
  • the display unit 7 is configured with a display capable of displaying images, such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display, and displays various information based on instructions from the calculation unit 5. .
  • the display unit 7 displays an image captured by the camera unit 4 as a through image on the display screen 7a based on an instruction from the calculation unit 5.
  • the term "through image” as used herein means an image for allowing the user to confirm the image being captured.
  • the display unit 7 displays various operation menus, icons, messages, etc., ie, as a GUI (Graphical User Interface), based on instructions from the calculation unit 5.
  • GUI Graphic User Interface
  • the memory unit 8 is composed of a nonvolatile memory such as a flash memory or an HDD (Hard Disk Drive), and is used to store various data handled by the information processing device 1.
  • the memory unit 8 is used as a memory in which images captured by the camera unit 4 are recorded.
  • the operation unit 9 is a comprehensive representation of various operators and operation devices that the information processing apparatus 1 has.
  • various types of operators and operation devices such as keys, dials, touch panels, touch pads, and remote controllers are assumed.
  • the touch panel referred to here means a panel configured to be able to detect a touch operation on the display screen 7a of the display unit 7. A user's operation is detected by the operation unit 9, and a signal corresponding to the input operation is interpreted by the calculation unit 5.
  • the calculation unit 5 has functions as a control unit 50, a three-dimensional map generation unit 51, a gaze point detection unit 52, a line-of-sight vector calculation unit 53, and a gaze area setting unit 54.
  • the three-dimensional map generation unit 51 generates the above-mentioned information based on the distance measurement information obtained by the distance measurement unit 3, that is, the distance image in this example, and the information on the self-position and orientation estimated by the self-position and orientation estimation unit 2. Generate a three-dimensional map for a predetermined range.
  • the three-dimensional map here indicates the position in the real three-dimensional space of each object (point) captured by each pixel in the range image using coordinate information (X, Y, Z) of the world coordinate system. It is information.
  • the coordinate system of the distance image is set to the (u,v) coordinate system. If an object Ob exists within the range to be measured by the distance measuring section 3, this object Ob is captured in the distance image.
  • a certain point on object Ob in real space is defined as point P1.
  • This point P1 is captured as a point P2 on the distance image.
  • a certain point on the distance image in other words, the coordinates (X i , Y j ) of a point in real space captured by a certain pixel (u i , v j ) are determined by the self of the information processing device 1.
  • the position and orientation can be determined based on the position and orientation. Specifically, if the self-position and orientation of the information processing device 1 are known, the position of a certain pixel (u i , v j ) is converted into a position (X i , Y j ) in the world coordinate system from that information. Since it is possible to obtain a conversion formula to do this, the position (u, v) of each pixel in the distance image is converted to a position (X, Y) in the world coordinate system using the conversion formula.
  • the distance z measured at a certain pixel (u i , v j ) can be calculated from that information in the Z direction in the world coordinate system.
  • a conversion formula for converting to coordinates can be found. Therefore, using the conversion formula, the distance z of each pixel in the range image is converted into a position (Z) in the world coordinate system.
  • the three-dimensional map generation unit 51 generates a three-dimensional map based on the distance image obtained by the ranging unit 3 and the information on the self-position and orientation estimated by the self-position and orientation estimation unit 2. generate.
  • the gaze vector calculation unit 53 calculates a gaze direction vector, which is a vector indicating the user's gaze direction in real space, based on information on the user's gaze direction input from the gaze/eye position estimation unit 6. Then, the calculated line-of-sight direction vector is output to the gaze point detection unit 52.
  • the gaze point detection unit 52 uses the three-dimensional map generated by the three-dimensional map generation unit 51, the gaze direction vector input from the gaze vector calculation unit 53, and the user's eye position estimated by the gaze/eye position estimation unit 6.
  • the user's gaze point is detected based on the information. Specifically, the gaze point detection unit 52 detects the intersection with the user's line of sight on the three-dimensional map as the gaze point. More specifically, the gaze point detection unit 52 detects the direction of the user's gaze (from the eye position to the direction indicated by the gaze direction vector) on the three-dimensional map (that is, the world coordinate system) based on the gaze direction vector and the user's eye position information.
  • the gaze point detected in this way in the world coordinate system will be referred to as a "three-dimensional gaze point Pr.”
  • the gaze area setting unit 54 sets a gaze area as an area where it is estimated that the user is gazing.
  • the gaze area is set as an area that includes at least the gaze point.
  • the gaze area setting unit 54 in this example does not set the gaze area as an area in the world coordinate system, but in the coordinate system of the image captured by the camera unit 4 (hereinafter referred to as "camera coordinate system"). Set as a region.
  • the gaze area that is thus set as an area in the camera coordinate system will be referred to as a "gazing area Aa.”
  • the gaze area setting unit 54 converts the three-dimensional gaze point Pr detected by the gaze point detection unit 52 into a gaze point in the camera coordinate system. This conversion can be performed based on the estimation information of the self-position and orientation of the information processing device 1, similar to the method of position conversion between the distance image coordinate system and the world coordinate system described above.
  • the point of interest in the camera coordinate system will be referred to as "point of interest Pi on the image.”
  • FIG. 3A is an example in which the gaze area Aa is set so that the image gaze point Pi is located at the center of the area.
  • FIG. 3B is an example in which the gaze area Aa is set so that the gaze point Pi on the image is located at a position within the area corresponding to the so-called rule of thirds.
  • the point of interest Pi on the image is positioned on the line or intersection that divides the area into thirds vertically and horizontally.
  • the gaze area setting unit 54 sets, as the gaze area Aa, an area in which the left, right, top, and bottom edges of each area are located at a predetermined distance from the gaze point Pi on the image. It turns out.
  • the position of the gaze point within the gaze area Aa, the aspect ratio of the gaze area Aa, etc. may be determined according to user operations.
  • the composition in which the gaze area Aa captures the gaze point is determined based on the user's operation.
  • the calculation unit 5 (for example, the control unit 50) accepts an operation for selecting an arbitrary composition from a plurality of predetermined compositions.
  • the gaze area setting unit 54 sets the gaze area Aa according to the aspect ratio corresponding to the selected composition so that the gaze point Pi on the image is located at the position corresponding to the selected composition.
  • a control unit 50 performs overall control of the information processing device 1. For example, instructions to execute or stop operations for the self-position/orientation estimation unit 2, distance measurement unit 3, camera unit 4, and line-of-sight/eye position estimation unit 6, display control of the display unit 7, and operations from the operation unit 9 Processes input information, etc.
  • control unit 50 in this embodiment performs control related to imaging by the camera unit 4 using information on the gaze area Aa set by the gaze area setting unit 54.
  • the "imaging-related control” mentioned here includes, for example, control related to recording of captured images, control related to displaying captured images, adjustment control of various parameters related to imaging, such as focus, zoom, exposure, etc. It broadly refers to control related to imaging, such as control of notification of various information related to imaging.
  • Control related to imaging performed by the control unit 50 will be described below.
  • the control unit 50 performs control related to recording of the captured image obtained by the camera unit 4.
  • the control unit 50 in this example performs control to cause the memory unit 8 to record the captured image obtained by the camera unit 4 and information indicating the gaze area Aa.
  • control unit 50 performs display control related to a through image of the captured image obtained by the camera unit 4 as control related to imaging. Specifically, when the gaze area Aa exists in the captured image, the control unit 50 controls so that an extracted image in which the gaze area Aa is extracted from the captured image is displayed as a through image. For example, as shown in FIG. 4A, in response to confirmation that the gaze area Aa exists in the captured image, the control unit 50 displays a screen from the captured image on the display screen 7a as shown in FIG. 4B. Control is performed so that the extracted image in which the gaze area Aa is extracted is displayed as a through image. FIG. 4B shows an example in which the extracted image is enlarged and displayed full screen on the display screen 7a.
  • the user can confirm the image of the image extracted according to the information of the gaze area Aa. Furthermore, by enlarging and displaying the extracted image, the visibility of the extracted image can be improved.
  • the control unit 50 cancels the extraction display when the user looks at the display screen 7a for a certain period of time or more while the above-described extraction display of the gaze area Aa is being performed.
  • the captured image is displayed on the display unit 7 so that the entire captured image fits on the display screen 7a.
  • the determination as to whether the user has viewed the display screen 7a for a certain period of time or more can be made based on the estimation result of the user's line of sight direction by the line of sight/eye position estimation unit 6, for example.
  • control unit 50 controls so that notification information is displayed to the user when the gaze area Aa approaches the edge of the captured image within a predetermined distance. This can be rephrased as control that notifies the user when the object that the user is gazing at (the object of interest) is about to go out of the frame.
  • the gaze object approaches the lower left end of the imaging range, so that the gaze area Aa moves to the lower left corner of the captured image.
  • An example close to the edge is shown.
  • the control unit 50 changes the extraction display of the gaze area Aa from the state shown in FIG. 6A to the extraction display as shown in FIG. 6B. Control is performed so that the display is canceled and the entire captured image is displayed on the display screen 7a. At the same time, the control unit 50 causes a message image M1 to be displayed on the display screen 7a to notify that the object to be watched is likely to go out of the frame. Furthermore, in the case of this example, the control unit 50 causes an area frame Wa indicating the range of the gaze area Aa to be displayed on the display screen 7a.
  • control unit 50 controls so that a specific image is displayed when the gaze point does not exist in the captured image.
  • the control unit 50 in this example displays, for example, a message image M2 and a direction notification image I1 as illustrated in FIG. 7 on the display screen 7a when the gaze point does not exist in the captured image.
  • the message image M2 is an image that includes at least message information for notifying the user that the object of interest has gone out of the frame from the imaging range.
  • the direction notification image I1 is an image for notifying the user of the direction in which the gazed object has gone out of the frame, and the figure shows an example of an image including an arrow indicating the frameout direction of the gazed object.
  • the message image M2 includes message information notifying that the object of interest has gone out of the frame in the direction indicated by the arrow in the direction notification image I1.
  • notifications that the gazed object is about to go out of frame or that it has gone out of frame are not limited to notifications using visual information as exemplified above, but may also include notifications using sound (auditory information), for example. It is also possible to provide notifications using tactile information such as or vibrations. Regarding the notification of the frame-out direction, it is also possible to notify not only by visual information such as the direction notification image I1 but also by auditory information or tactile information.
  • control unit 50 performs control related to switching the gaze object. That is, the control unit 50 estimates whether the gaze point has moved to another object based on the results of multiple gaze point detections by the gaze point detection unit 52, and has estimated that the gaze point has moved to another object. In this case, switching processing is performed to apply the gaze area Aa based on the gaze point newly detected by the gaze point detection unit as the gaze area Aa used for control related to imaging.
  • the estimation of whether the gaze point has moved to another object is performed when a new three-dimensional gaze point Pr is detected. This is performed as a determination as to whether or not the point of interest is a predetermined distance or more away from the three-dimensional gaze point Pr.
  • object detection processing is not performed on the captured image, it is not possible to specify the object where the three-dimensional gaze point Pr exists. Estimate.
  • control unit 50 does not execute the switching process only when it is estimated that the point of gaze has moved to another object in the estimation process as described above. Specifically, when the first condition is that the point of gaze is estimated to have moved to another object, the control unit 50 controls the control unit 50 when the first condition and a second condition different from the first condition are satisfied. Perform switching processing.
  • the second condition may be that the point of gaze is estimated to be on another object for a certain period of time or more.
  • the control unit 50 estimates that the three-dimensional gaze point Pr has moved to another object by the estimation process described above, the control unit 50 sets the three-dimensional gaze point Pr detected at the timing of this estimation as the reference gaze point, and thereafter It is determined whether or not the three-dimensional gaze point Pr detected in is within a predetermined distance range from the reference gaze point for a certain period of time or more. For example, by making such a determination, it is possible to determine whether a state in which the point of gaze is estimated to be on another object has elapsed for a certain period of time or more. Then, in response to determining that the state in which the point of gaze is estimated to be on another object has elapsed for a certain period of time or more, the above switching process is performed.
  • the second condition may be that the imaging direction is directed in the direction where another object exists.
  • the control unit 50 may calculate the self-position and the self-position of the information processing device 1 estimated by the self-position/orientation estimation unit 2, for example. Based on the posture information, it is determined whether the imaging direction of the camera unit 4 is directed in the direction where another object exists, and in response to a positive result obtained from the determination, the above switching process is performed. .
  • control unit 50 also performs the following control regarding switching of the gaze area Aa when the gaze point is estimated to be on another object. That is, when switching to the gaze area Aa of another object, the control unit 50 performs control to change at least one of the position and size of the gaze area Aa in stages.
  • FIG. 8 is an explanatory diagram of a first example of stepwise change control of the gaze area Aa.
  • the switching source gaze object is object Ob1
  • the switching destination gaze object is object Ob2.
  • the control unit 50 changes the position of the gaze area Aa from the gaze area Aa that was set for the switching source object Ob1 to the position corresponding to the switching destination object Ob2.
  • the position of the gaze area Aa is changed stepwise. In this stepwise process of changing the position of the gaze area Aa, the size of the gaze area Aa may remain unchanged or may change.
  • FIG. 9 is an explanatory diagram of a second example of stepwise change control of the gaze area Aa.
  • the control unit 50 temporarily expands the size of the gaze area Aa to a size that includes both the switching source object Ob1 and the switching destination object Ob2, as shown in the transition from FIG. 9A to FIG. 9C.
  • the gaze area Aa is changed to correspond to the switching destination object Ob2.
  • the size may be determined to include the point of interest detected at the detection timing of the point of interest that corresponds to the timing when both of the second condition and the second condition are satisfied.
  • the size of the gaze area Aa corresponding to object Ob2 shown in FIG. 9C is a size based on information on the composition selected in advance by the user.
  • FIG. 10 is a diagram for explaining an example of display transition when switching to the gaze area Aa of another object.
  • FIG. 10 we will explain an example based on the case where the position of the gaze area Aa is changed stepwise as shown in FIG. can be done.
  • the gaze area Aa is set corresponding to the switching source object Ob1.
  • the extracted image of the gaze area Aa is displayed, so if the first condition and the second condition are not satisfied, the image shown in FIG. 10A is , an extracted image of the gaze area Aa corresponding to the object Ob1 is displayed on the display screen 7a.
  • the control unit 50 cancels the extracted display of the gaze area Aa, that is, displays the entire captured image, and displays the image corresponding to the object Ob1 as shown in FIG. 10B.
  • An area frame Wa indicating the gaze area Aa is displayed superimposed on the captured image.
  • control unit 50 transitions the display position of the area frame Wa on the display screen 7a (on the captured image) so that the position transition is similar to the position transition of the gaze area Aa explained in FIG. (See transition from FIG. 10B to FIG. 10D). Then, in response to completion of the transition of the display position of the area frame Wa, as shown in FIG. 10E, an extracted image of the gaze area Aa at the time of completion of the transition is displayed on the display screen 7a.
  • FIGS. 11 to 13 A specific example of a processing procedure for realizing the imaging control method according to the first embodiment described above will be described with reference to the flowcharts of FIGS. 11 to 13. Note that the processes shown in FIGS. 11 to 13 are executed by the CPU of the calculation unit 5 based on a program stored in a predetermined storage device such as the ROM in the calculation unit 5 or the memory unit 8. Hereinafter, the entity that executes the processing will be referred to as the calculation unit 5.
  • FIG. 11 is a flowchart showing processing related to recording of captured images.
  • the captured image is a moving image, and the case where the moving image is recorded will be exemplified.
  • the calculation unit 5 waits for the application activation condition to be satisfied.
  • the application (application program) referred to here is an application for realizing the imaging control method according to the first embodiment described above, and in step S101, the calculation unit 5 performs a predetermined application process such as a startup operation of the application. Waits until the activation conditions are met.
  • step S101 If it is determined in step S101 that the application activation condition is satisfied, the calculation unit 5 proceeds to step S102 and performs processing to start distance measurement, self-position/posture, and line-of-sight/eye position estimation. That is, distance measurement by the distance measurement unit 3 (generation of a distance image in this example), estimation of the self-position and orientation of the information processing device 1 by the self-position/orientation estimation unit 2, and estimation of the user's self-position and orientation by the line-of-sight/eye position estimation unit 6. This is a process to start estimating the line of sight and eye position.
  • step S103 the calculation unit 5 executes a gaze point detection/setting process.
  • the gaze point detection/setting process in step S103 is a process for detecting a three-dimensional gaze point Pr and setting a three-dimensional gaze point Pr to be applied to control related to imaging.
  • FIG. 12 is a flowchart showing the gaze point detection/setting process in step S103.
  • the calculation unit 5 generates a three-dimensional map based on distance measurement information and self-position/orientation information. That is, based on the distance measurement information (distance image) obtained by the distance measurement section 3 and the information on the self-position and posture of the information processing device 1 obtained by the self-position and posture estimation section 2, a three-dimensional map is created by the method described above. generate.
  • step S151 following step S150 the calculation unit 5 executes a three-dimensional gaze point detection process based on the three-dimensional map, line-of-sight vector, and eye position information. That is, the three-dimensional map generated in step S150, information on the self-position and orientation of the information processing device 1 estimated by the self-position and orientation estimation section 2, and the user's line of sight estimated by the gaze and eye position estimation section 6 and the eye position information, the intersection point with the user's line of sight on the three-dimensional map is detected as the three-dimensional gaze point Pr.
  • step S152 the calculation unit 5 determines whether a gaze point has been detected. That is, it is determined whether the three-dimensional gaze point Pr has been detected by the detection process in step S151.
  • the calculation unit 5 proceeds to step S153 and determines whether the gaze point is away from the previously set gaze point.
  • the set gaze point means a three-dimensional gaze point Pr that is applied to control related to imaging.
  • the reason why the detected three-dimensional gaze point Pr and the set gaze point are distinguished is that in this example, the detected three-dimensional gaze point Pr should not be immediately applied to the control related to imaging. For example, when switching the gaze area Aa as described above, the position of the gaze area Aa is changed in stages, so that a situation arises in which the gaze point should be set to a gaze point different from the detected gaze point. For this reason, in this example, it is possible to set the gaze point to be applied to control related to imaging as a gaze point different from the detected gaze point as the set gaze point (see steps S154, S156, S159, etc.).
  • step S153 it is determined whether the three-dimensional gaze point Pr detected in the current process of step S151 is separated from the previously set gaze point by a predetermined distance or more. This corresponds to determining whether the first condition related to switching the gaze area Aa to another object described above is met.
  • step S153 a determination result is obtained that the three-dimensional gaze point Pr detected in the process of step S151 this time is not more than a predetermined distance from the previous set gaze point, and is not far from the previous set gaze point. If so, the calculation unit 5 proceeds to step S154 and sets the detected point of gaze as the current point of gaze. That is, the three-dimensional gaze point Pr detected in the process of step S151 this time is set as the currently set gaze point.
  • the calculation unit 5 finishes the gaze point detection/setting process of step S103.
  • step S152 determines whether the gaze point has not been detected.
  • the calculation unit 5 advances the process to step S155, and determines whether the state in which the gaze point is not detected has continued for a certain period of time or more.
  • step S151 it is determined whether or not a certain period of time has elapsed without the three-dimensional gaze point Pr being detected continuously.
  • step S155 If it is determined in step S155 that the state of non-detection of the gaze point has not continued for a certain period of time or more, the calculation unit 5 proceeds to step S156 and sets the previously set gaze point as the current gaze point.
  • the previously set gaze point will be inherited if the situation is momentary. Therefore, it is possible to prevent frequent switching between a state in which the point of gaze is set and a state in which the point of gaze is not set in response to a momentary loss of the point of gaze.
  • step S156 the calculation unit 5 finishes the gaze point detection/setting process of step S103.
  • step S155 determines whether the state of non-detection of the gaze point has continued for a certain period of time or more. If it is determined in step S155 that the state of non-detection of the gaze point has continued for a certain period of time or more, the calculation unit 5 proceeds to step S157, sets that there is no gaze point, and ends the gaze point detection/setting process of step S103. .
  • step S153 if it is determined that the gaze point is far from the previously set gaze point (if the first condition for switching is satisfied), the calculation unit 5 proceeds to step S158, and determines whether the gaze point switching condition is satisfied or not. Determine. That is, it is determined whether the second condition described above is satisfied. Specifically, in this example, it is determined whether a certain period of time or more has elapsed in which the point of gaze is estimated to be on another object, or whether the imaging direction of the camera unit 4 is directed in the direction where another object exists. Determine whether
  • step S158 If it is determined in step S158 that the gaze point switching condition is not satisfied, the calculation unit 5 proceeds to step S159, sets the previously set gaze point as the current gaze point, and performs the gaze point detection/setting process in step S103. finish. In other words, in this case, switching to the gaze area Aa of another object is not performed.
  • step S158 determines whether the gaze point switching condition is satisfied. If it is determined in step S158 that the gaze point switching condition is not satisfied, the calculation unit 5 proceeds to step S160 and executes gaze point switching processing. That is, the position of the three-dimensional gaze point Pr is changed from the position of the currently set gaze point so that the position and size of the gaze area Aa are changed stepwise in the manner described with reference to FIGS. 8 and 9. The process of changing stepwise from the position of the three-dimensional gaze point Pr detected in the current process of step S151 is performed. At this time, each time the three-dimensional gaze point Pr is changed, the calculation unit 5 sets the changed three-dimensional gaze point Pr as the set gaze point.
  • a gaze area Aa based on the three-dimensional gaze point Pr is set in step S114 (FIG. 11) described later, and gaze area information indicating the gaze area Aa is set in step S115. will be recorded in the memory section 8.
  • the calculation unit 5 finishes the gaze point detection/setting process in step S103.
  • the explanation returns to FIG. 11.
  • the calculation unit 5 advances the process to step S104 in response to executing the gaze point detection/setting process in step S103.
  • step S104 the calculation unit 5 determines whether the recording flag is ON.
  • the recording flag is a flag indicating the recording status of an image (in this example, a moving image) captured by the camera unit 4, and ON indicates that recording is in progress, and OFF indicates that recording is not in progress.
  • the recording flag is turned ON in response to the start of recording in step S109, which will be described later.
  • step S104 By providing the process of step S104, it becomes possible to set the gaze area Aa in a state before the start of recording, and display the extracted image of the gaze area Aa on the display screen 7a before the start of recording, or It becomes possible to display an area frame Wa indicating the area.
  • step S104 If it is determined in step S104 that the recording flag is not ON, the calculation unit 5 advances the process to step S105.
  • the calculation unit 5 waits for the start of the next frame, the start of recording, the end of recording, or the end of the application.
  • the frame here means a frame of a captured image.
  • step S105 the calculation unit 5 determines whether or not the next frame has started, and when it is determined that the next frame has not started, in step S106, it determines whether or not to start recording, that is, for example, when the user performs a recording start operation. It is determined whether predetermined conditions such as the following are satisfied.
  • step S106 If it is determined in step S106 that recording has not started, the calculation unit 5 proceeds to step S107 and determines whether or not recording has ended, that is, whether a predetermined condition such as a user's operation to end recording has been satisfied, and If it is determined that the application has not ended, the process proceeds to step S108, where it is determined whether the application has ended, that is, whether a predetermined condition such as an application termination operation is satisfied. If it is determined that the application has not ended, the calculation unit 5 returns to step S105.
  • step S106 If it is determined in step S106 that recording is to be started, the calculation unit 5 proceeds to step S109, turns on the recording flag, and performs processing to start recording the captured image in subsequent step S110. That is, recording of the captured image as a moving image obtained by the camera section 4 in the memory section 8 is started. In response to execution of the recording start process in step S110, the calculation unit 5 returns to step S105.
  • step S107 when it is determined in step S107 that recording has ended, the calculation unit 5 proceeds to step S111, and executes a process for terminating the recording of the captured image, that is, a process for terminating the recording of the captured image started in step S110. Then, in step S112, the recording flag is turned off, and the process returns to step S105.
  • step S105 If it is determined in step S105 that the next frame has started, the calculation unit 5 returns to step S103. Thereby, the gaze point detection/setting process in step S103 is performed for each frame.
  • step S104 when the calculation unit 5 determines that the recording flag is ON, the process proceeds to step S113, and it is determined whether the gaze point has been set. That is, it is determined whether the three-dimensional gaze point Pr has been set by the gaze point detection/setting process in step S103.
  • step S113 if it is determined that the gaze point has been set, the calculation unit 5 proceeds to step S114 and sets the gaze area Aa. That is, as explained as the gaze area setting unit 54, the set three-dimensional gaze point Pr is converted to the image gaze point Pi, and based on the image gaze point Pi, the gaze area is set according to the composition selected by the user. Perform processing to set Aa.
  • step S115 following step S114 the calculation unit 5 performs a process of recording gaze area information. That is, a process is performed in which information indicating the gaze area Aa set in step S114, specifically, for example, center coordinates and range information of the gaze area Aa, is recorded in the memory unit 8. As a result, during recording, gaze area information indicating the gaze area Aa is recorded in the memory unit 8 along with the captured image.
  • the calculation unit 5 returns to step S105 in response to executing the process of step S115.
  • the point of interest detection and setting process in step S103 is performed for each frame, and once the point of interest is set, the processes in steps S114 and S115 are performed to confirm the set point.
  • Information on the gaze area Aa corresponding to the gaze point can be recorded as information on the gaze area Aa corresponding to the frame.
  • step S113 determines that the gaze point has not been set.
  • the calculation unit 5 passes the processing in steps S114 and S115 and returns to step S105. As a result, while recording is continuing, information on the gaze area Aa is not recorded for frames in which no gaze point has been set.
  • the calculation unit 5 completes the series of processes shown in FIG. 11 in response to determining that the application has ended in step S108.
  • FIG. 13 is a flowchart of processing related to displaying a captured image.
  • the calculation unit 5 executes the process shown in FIG. 13 in parallel with the process shown in FIG. 11 while the application is running.
  • step S201 the calculation unit 5 waits until the gaze point is set. That is, the process waits until the three-dimensional gaze point Pr is set by the gaze point detection/setting process in step S103 in FIG.
  • step S201 If it is determined in step S201 that a gaze point has been set, the calculation unit 5 proceeds to step S202 and extracts and displays the gaze area Aa. That is, in response to the setting of the gaze point, the gaze area Aa is extracted and displayed on the display screen 7a as illustrated in FIG. 4 above.
  • step S202 if recording is currently in progress and the gaze area Aa setting process is performed in step S114 of FIG. 11, the information on the gaze area Aa set in the setting process can be used. In the current non-recording state, in step S202, processing is performed to set the gaze area Aa based on information on the set three-dimensional gaze point Pr.
  • the calculation unit 5 advances the process to step S203.
  • the calculation unit 5 determines whether the gaze area Aa approaches the edge of the captured image, the user has been looking at the screen for a certain period of time or more, the gaze point has been switched, or the application has ended. The system will wait until . Specifically, in step S203, the calculation unit 5 determines whether the gaze area Aa has approached the edge of the captured image, that is, whether the gaze area Aa has approached the edge of the captured image within a predetermined distance as described above. If it is determined that the gaze area Aa is not close to the edge of the captured image, the process advances to step S204 to determine whether the user has been looking at the screen for a certain period of time or more, that is, as described above.
  • step S204 determines whether or not the user has been viewing the display screen 7a for a certain period of time or more. Further, if the calculation unit 5 determines in step S204 that the user has not looked at the screen for a certain period of time or more, the process proceeds to step S205, and determines whether or not to switch the point of gaze, that is, in step S158 in FIG. It is determined whether it is determined that the condition is satisfied, and if it is determined that the point of gaze has not been switched, the process advances to step S206 and it is determined whether or not the application is to be terminated. If it is determined in step S206 that the application has ended, the calculation unit 5 returns to step S203.
  • step S203 If it is determined in step S203 that the gaze area Aa has approached the edge of the captured image, the calculation unit 5 proceeds to step S207, cancels the extraction display, and performs processing for displaying the frame of the gaze area Aa. That is, the extracted display of the gaze area Aa started in step S202 is canceled so that the entire captured image is displayed on the display screen 7a, and the area frame Wa is displayed superimposed on the captured image (FIG. 6 reference). At this time, as the area frame Wa, an area frame Wa indicating the gaze area Aa set based on the three-dimensional gaze point Pr currently being set is displayed.
  • the calculation unit 5 issues a frame-out warning notification in step S208 following step S207. That is, processing is performed to display at least the message image M1 as illustrated in FIG. 6B on the display screen 7a. It should be noted that the warning notification in step S208 may be performed using a method other than screen display, such as sound or vibration.
  • step S209 the calculation unit 5 determines whether the point of gaze is not set. That is, it is determined whether or not step S157 in FIG. 12 has been executed and the three-dimensional gaze point Pr has become unset.
  • step S209 determines whether the gaze point is set.
  • the extraction display condition here, it is possible to set, for example, a condition such that the distance of the gaze area Aa to the edge of the captured image has returned to a predetermined distance or more. If it is determined in step S210 that the extraction display condition is not satisfied, the calculation unit 5 returns to step S208. As a result, until the extraction display condition is satisfied, such as when the distance of the gaze area Aa to the edge of the captured image returns to a predetermined distance or more, the gaze object does not go out of the frame and the gaze point is not set in step S209. Unless it is determined that the frame-out warning has occurred, the extracted display remains canceled and the frame-out warning notification continues.
  • step S210 if it is determined in step S210 that the extraction display condition is satisfied, the calculation unit 5 returns to the previous step S202. That is, if the extraction display condition in step S210 is satisfied, the state returns to the extraction display state of the gaze area Aa.
  • step S209 determines that the gaze point has not been set.
  • the calculation unit 5 proceeds to step S211 and executes a frame-out display process. That is, a process is performed to display the message image M2 and the direction notification image I1 as exemplified in FIG. 7 on the display screen 7a.
  • the calculation unit 5 returns to step S201 in response to executing the frame-out display process in step S211. As a result, after the gaze object goes out of frame and the gaze point is not set, the system waits until a gaze point is newly set.
  • step S212 the calculation unit 5 waits until the extraction display condition is satisfied.
  • the extraction display condition in step S213 may be, for example, that the user is not looking at the display screen 7a. If it is determined in step S213 that the extraction display condition is satisfied, the calculation unit 5 returns to step S202.
  • step S205 when the calculation unit 5 determines that the gaze point has been switched in step S205, the processing proceeds to step S214, and the extraction display is canceled.
  • the display on the display screen 7a is changed to It is possible to switch from the extracted display state of Aa to the display of the entire captured image.
  • step S215 following step S214 the calculation unit 5 executes a switching display process. That is, as illustrated in FIG. 10 above, this is a process of changing the position of the area frame Wa in stages. Specifically, the calculation unit 5 changes the position of the area frame Wa from the position corresponding to the gaze point that was set immediately before the above-described first condition (the condition of step S153 in FIG. 12) to the first and second positions. Processing is performed to gradually change the position corresponding to the detected point of gaze at the timing when both conditions are met (the timing when the conditions are met in step S158 in FIG. 12). Note that when changing the size of the area frame Wa in steps, the size of the area frame Wa is changed in steps using the same method as in FIG.
  • step S215 In response to executing the switching display process in step S215, the calculation unit 5 returns to step S202.
  • the switching display process in step S215 is completed, that is, when the area frame Wa is changed to the final state, the extracted image of the gaze area Aa is displayed as illustrated in FIG. 10E. It is displayed on the screen 7a.
  • the calculation unit 5 finishes the series of processes shown in FIG. 13 in response to determining that the application has ended in step S206.
  • the gaze point is detected for each frame, so even if the imaging range changes due to camera shake or the like, the gaze area Aa can be prevented from blurring.
  • the gaze area Aa since the gaze area Aa is set based on the gaze point, the gaze area Aa can be made to follow the movement of the gaze object, and in this case, the composition selected by the user is can be maintained.
  • the extracted image of the gaze area Aa is displayed in response to the setting of the gaze point, it is not essential to display the extracted image.
  • a gaze point when a gaze point is set, it is conceivable to display the entire captured image on the display screen 7a and to display the area frame Wa superimposed on the captured image.
  • an area frame Wa indicating the switched gaze area Aa is displayed on the display screen 7a. It may be possible to display the At this time, it is conceivable that the area frame Wa indicating the gaze area Aa after switching is made to stand out by, for example, blinking.
  • the gaze area Aa is set based on a single gaze point, but the gaze area Aa is an area where gaze points are frequently detected using past gaze point detection results. It is also conceivable to set the area as an area that includes.
  • the zoom function it is conceivable to change the size of the viewing area Aa in conjunction with the zoom operation.
  • the gaze area Aa is automatically switched in response to the fulfillment of the first and second conditions described above.
  • message information asking the user whether to switch to the gaze area Aa of another object is notified by, for example, an image display, and in response to the user's operation in response to the notification, It is also possible to switch to the gaze area Aa of another object.
  • the user operation may be, for example, a touch operation on the display screen 7a, a voice input operation, or the like.
  • a gaze area Aa is set from the gaze point detected at the timing, and information about the set gaze area Aa is recorded in the memory unit 8 together with a captured image as a still image acquired at the timing when the release operation is performed.
  • the case where information on the gaze area Aa is recorded together with the captured image is illustrated above, it is also possible to record an image in which the gaze area Aa is extracted.
  • the gaze area Aa is extracted.
  • the camera unit 4 is used as a so-called PTZ camera that is capable of optical zooming using a zoom lens and is also capable of adjusting panning and tilting
  • the viewing area can be adjusted by optical zooming, panning, and tilting. It is also conceivable to obtain an extracted image in which Aa is extracted and record the extracted image.
  • the range of the gazed object can be specified by performing object detection processing.
  • FIG. 14 is a block diagram showing a configuration example of an information processing device 1A as a second embodiment.
  • the same reference numerals and step numbers are given to parts that are the same as those already explained, and the description thereof will be omitted.
  • the difference between the information processing device 1A and the information processing device 1 of the first embodiment is that a calculation section 5A is provided in place of the calculation section 5.
  • the calculation unit 5A differs from the calculation unit 5 in that an object detection unit 55 is added and that a gaze area setting unit 54A is provided in place of the gaze area setting unit 54.
  • the object detection unit 55 performs object detection processing based on the image captured by the camera unit 4. In this object detection process, the presence or absence of an object and the range of the object are determined. For example, as the object detection unit 55, it is possible to use an artificial intelligence model that is machine learned. As this artificial intelligence model, for example, a learning model trained by deep learning to be able to specify the presence or absence of an object as a target and its range is used. Note that it is not essential to use an artificial intelligence model in the object detection unit 55, and it is also possible to adopt a configuration in which object detection is performed by rule-based processing such as template matching, for example.
  • the gaze area setting unit 54A sets the gaze point detected by the gaze point detection unit 52 (three-dimensional gaze point Pr) and the information on the object detected by the object detection unit 55 (information indicating the detected object and its range). Based on this, the object including the gaze point is specified as the gaze object, and the area containing the gaze object is set as the gaze area Aa. In this case as well, the setting of the gaze area Aa is performed based on information on the composition selected by the user's operation. For example, the gaze area Aa is set using the representative position of the gaze object (for example, the center position of the object range, etc.) as a reference, using a method similar to that illustrated in FIG. 3 above.
  • the gaze area setting unit 54A sets the gaze area Aa so that the entire portion that does not protrude is contained.
  • FIG. 15 shows a specific processing procedure example of processing related to recording of captured images that should be executed by the calculation section 5 in response to the case where the object detection section 55 and the gaze area setting section 54A as described above are provided.
  • This is a flowchart.
  • the process shown in FIG. 15 is different from the process shown in FIG. 11 above in that instead of the gaze area setting process in step S114, the object detection process in step S301 and the gaze area setting process in step S302 are performed.
  • the difference is that the point of interest detection/setting process of step S103' is performed instead of the point of interest detection/setting process of step S103.
  • step S301 The object detection process in step S301 is the process described as the object detection unit 55 described above, and a duplicate description will be avoided.
  • the calculation unit 5 sets the gaze area Aa based on the result of the object detection process of step S301. Specifically, the three-dimensional gaze point Pr set in the gaze point detection/setting process (details will be described later) in step S103' is converted into an image gaze point Pi, and the object detected in the object detection process in step S301 is converted into a gaze point Pi on the image. Among the objects that have been viewed, the object that includes the point of gaze Pi on the image is specified as the gaze object. Then, a gaze area Aa is set according to the composition selected by the user using a representative position such as the center position of the gaze object as a reference. The calculation unit 5 advances the process to step S115 in response to setting the gaze area Aa in step S302.
  • FIG. 16 is a flowchart showing the gaze point detection/setting process in step S103'.
  • the difference from the gaze point detection/setting process in step S103 shown in FIG. 12 is that the process in step S401 is performed instead of the process in step S153.
  • the calculation unit 5 determines whether the detected point of gaze is on an object different from the gaze object. In other words, the execution conditions for the switching process are determined based on the object range rather than on the point of view. Thereby, it is possible to appropriately determine whether the user's gaze point has moved onto another object.
  • notification is performed when the object of interest is about to go out of the frame from the captured image, but in the second embodiment, not only the object of interest but also other objects are detected. Therefore, it is conceivable to notify users by taking advantage of this feature. For example, gaze history information indicating the number of times each detected object is gazed at is generated, and based on the gaze history information, objects that were gazed before or objects that may be gazed at again are It is conceivable to notify the user when the captured image is about to go out of frame.
  • the present technology is not limited to the above-described specific example, and can take configurations as various modified examples.
  • a modified example consider a configuration in which, in addition to the main camera as the camera unit 4, there is a secondary camera with a wider angle. In this case, if the object of interest goes out of the frame from the imaging range of the main camera, it is conceivable to use the secondary camera. Specifically, when the object to be watched is captured by the secondary camera, information on the gaze area Aa is recorded together with the image captured by the secondary camera.
  • a screen display when a secondary camera is used it is possible to display the image of the main camera in the center of the screen and the image of the secondary camera on the outside. At this time, image frame information indicating the imaging range of the main camera may be displayed. Further, it is conceivable that the exposure of both the main camera and the secondary camera is adjusted to match the object of interest.
  • the extracted image may be generated by the zooming, but if the camera itself can be moved, such as an endoscopic camera, It is also possible to generate extracted images by moving the camera.
  • the following can be considered as a countermeasure when the user's line of sight is lost. For example, even if the line of sight cannot be estimated, if the direction of the user's head can be estimated, it may be possible to estimate the line of sight from the direction of the head and detect an object that intersects the estimated line of sight as the object of interest. It will be done. Alternatively, if the line of sight is lost, it may be possible to set an area where gaze points were frequently detected in the past as the gaze area Aa. Furthermore, when the line of sight is lost, it is also possible to determine an object whose face is registered (if there are multiple face-registered objects, an object selected from them) as the gaze object.
  • the still image may be recorded by sounding "shutter" while gazing at the target object or by operating a button.
  • recording may be started in response to the sound of "shutter” or button operation while gazing at a target object.
  • the gaze area Aa may be set to a range that accommodates the plurality of gaze points (in the case of object detection, it is set to a range that accommodates a plurality of gaze objects).
  • the gaze area Aa when recording the captured image and the information indicating the gaze area Aa, it is also possible to enable the gaze area Aa to be edited on the editing screen after the image is captured.
  • the device form of the information processing device is illustrated as a smartphone, but the information processing device according to the present technology may be a device other than a smartphone, such as a camera or an HMD (Head Mount Display). It can take any form.
  • a smartphone such as a camera or an HMD (Head Mount Display). It can take any form.
  • HMD Head Mount Display
  • the method for obtaining distance measurement information is not limited to the ToF method.
  • distance measurement may be performed using a LiDAR method other than the ToF method, a stereo camera, a monocular SLAM (Simultaneous Localization and Mapping), a compound eye SLAM, or the like.
  • distance measurement may be based on the image plane phase difference method, ultrasonic distance measurement, distance measurement using electromagnetic radar, or the like.
  • a distance measurement sensor separate from the image sensor included in the camera unit 4 is provided in order to obtain distance measurement information.
  • the acquisition is not limited to using a sensor for
  • SfM Structure from Motion
  • a configuration in which distance measurement information is obtained using an artificial intelligence model that is machine-learned to infer a distance image from an RGB image is also conceivable.
  • the information processing device (1, 1A) as an embodiment is configured to collect distance measurement information indicating a distance measurement result for a predetermined range including an imaging range that is an imaging target range in real space.
  • a detection unit three-dimensional map generation unit 51 and gaze point detection unit 52
  • the apparatus includes a control unit (50) that performs control related to imaging using information on the gaze area.
  • the user holds the imaging device so as to face the target object and captures an image while looking directly at the target object rather than through the screen of the imaging device, which is so-called "while imaging”.
  • control unit performs control related to imaging using information on the user's gaze area, so that the user is provided with a captured image that appropriately captures the gaze object. Become. Therefore, it is possible to realize an imaging control technique suitable for performing "while imaging".
  • the detection unit generates a three-dimensional map for a predetermined range based on the ranging information, and detects the intersection with the user's line of sight on the three-dimensional map as a point of gaze. There is. Thereby, the user's gaze point can be appropriately detected.
  • the information processing apparatus includes a gaze area setting unit (54, 54A) that sets an area including a gaze point as a gaze area.
  • a gaze area setting unit 54, 54A
  • sets an area including a gaze point as a gaze area Thereby, control related to imaging is performed based on information on the gaze area set as the area including the gaze point. Therefore, it is possible to provide the user with a captured image that appropriately captures the object of interest, and it is possible to realize an imaging control technique suitable for "while imaging".
  • the gaze area setting unit (54) defines an area in which the left, right, top, and bottom edges of each area are located at predetermined distances from the gaze point. It is set as the gaze area. This makes it possible to set a gaze area in which the gaze point is placed at a predetermined position, such as the center position within the area. Therefore, when providing a user with an extracted image obtained by extracting a gaze area in a captured image, the composition of the extracted image can be set to an arbitrary composition.
  • the gaze area setting unit (54A) fixes the gaze area on an object including the gaze point among the objects detected in the object detection process targeting the real space.
  • a region that includes the object and is identified as an object is set as a region of interest.
  • the entire gaze object including the gaze point is included in the gaze area. Therefore, when providing a user with an extracted image obtained by extracting a gaze area in a captured image, an appropriate image containing the entire gaze object can be obtained as the extracted image.
  • the gaze area setting unit sets the gaze area so that the gaze object is located at a position within the area specified by an operation in advance (see FIG. 3, etc.).
  • the user it becomes possible for the user to preset at which position within the gaze area the gaze object is to be positioned. Therefore, when providing the user with an extracted image obtained by extracting the gaze area in the captured image, the composition of the extracted image can be set to an appropriate composition in accordance with the user's intention.
  • the control unit estimates whether the point of gaze has moved to another object based on the result of detecting the point of gaze a plurality of times by the detection unit.
  • the detection unit performs a switching process to apply the gaze area based on the newly detected gaze point as the gaze area used for control related to imaging ( Figure 12 , see Figure 16).
  • control related to imaging can be appropriately performed based on information on the gaze point after switching.
  • control unit determines whether the point of gaze has moved to another object based on the range information of the object detected by object detection processing in real space. It is estimated that By using the range information of the object detected in the object detection process as described above, it is possible to appropriately estimate the movement of the gaze point between objects.
  • the control unit when the first condition is that the point of gaze is estimated to have moved to another object, the control unit sets the first condition and the first condition to the first condition.
  • the switching process is performed when a second condition different from the first condition is satisfied (see FIGS. 12 and 16).
  • the gaze area switching process is not performed even if the user only temporarily views another object. Therefore, if the user looks at another object without intending to switch the gaze area, such as temporarily looking in the direction of a loud noise, the gaze area may be switched against the user's intention. It is possible to prevent this from happening.
  • the second condition is that the point of gaze is estimated to be on another object for a certain period of time or more.
  • the gaze area switching process can be appropriately performed according to the user's intention.
  • the second condition is that the imaging direction is directed in the direction where another object exists.
  • the imaging direction is directed toward the direction where another object exists, it is presumed that the user's interest has shifted from the original object to the other object. Therefore, according to the above configuration, the gaze area switching process can be appropriately performed according to the user's intention.
  • the control unit when switching to the gaze area of another object, changes at least one of the position and size of the gaze area in stages (FIGS. 8 and 9). reference). This makes it possible to prevent the gaze area from changing rapidly. Therefore, when providing a user with an extracted image obtained by extracting a gaze area in a captured image, it is possible to prevent the image content of the extracted image from changing rapidly, and display the gaze image. It is possible to alleviate the discomfort caused when
  • control unit performs control related to recording of a captured image obtained by capturing, as control related to imaging. For example, it is possible to record information indicating the gaze area together with the captured image, or to record an extracted image in which the gaze area is extracted from the captured image. Alternatively, it is also possible to record both the captured image and the extracted image. Therefore, even if the user performs "while taking an image," it is possible to provide the user with a captured image in which the object of interest is appropriately framed.
  • control unit performs control related to imaging to record a captured image obtained by imaging and information indicating a gaze area.
  • the control unit performs display control related to a through image of a captured image obtained by capturing, as control related to imaging. For example, performing display control that reflects the gaze area, such as superimposing information indicating which area in the captured image is the gaze area on the through image, or displaying a through image with the gaze area enlarged. is possible. Therefore, the user can confirm whether the gaze area is correctly recognized in the information processing device.
  • control unit controls so that when a gaze area exists in the captured image, an extracted image in which the gaze area is extracted from the captured image is displayed as a through image. ing. Thereby, when providing the user with an extracted image obtained by extracting the gaze area in the captured image, the user can confirm the image of the extracted image.
  • control unit controls the notification information to be displayed to the user when the gaze area approaches the edge of the captured image within a predetermined distance. ing. Thereby, when the object to be watched is about to go out of the frame from the captured image during "while imaging", the user can be notified of this fact.
  • the control unit controls so that a specific image is displayed when the point of interest does not exist in the captured image.
  • a specific image For example, an image that includes a message indicating that the gazed object has gone out of the frame, an image that includes information such as an arrow indicating the direction of the gazed object's out-of-frame direction, etc., indicating information that should be notified to the user when the gazed object goes out of the frame.
  • the image display allows the user to intuitively understand that the object of interest is not captured in the captured image, which is an inappropriate framing state. Further, it is possible to realize user assistance for returning to an appropriate framing state in which the object of interest is captured within the captured image.
  • an information processing apparatus collects distance measurement information indicating a distance measurement result for a predetermined range including an imaging range that is an imaging target range in real space, and a user's line of sight and eye position.
  • This is an information processing method that detects a user's gaze point in real space based on estimated information and performs control related to imaging using information on a gaze area set based on the gaze point.
  • the recording medium of the embodiment is a recording medium in which a program readable by a computer device is recorded, and the recording medium is a recording medium in which a program readable by a computer device is recorded, and the recording medium is a recording medium that records distance measurement results for a predetermined range including an imaging range that is an imaging target range in real space.
  • the imaging control function as the embodiment described above can be realized by software processing in a device as a computer device.
  • the recording medium as described above can be realized as an HDD built into equipment such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • a flexible disk such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • a flexible disk such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • a flexible disk such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • a flexible disk such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • a CD-ROM Compact Disc Read Only Memory
  • MO Magnetic Optical
  • DVD Digital Versatile Disc
  • Blu-ray Disc registered trademark
  • a magnetic disk such as a memory card
  • Such a removable recording medium can be provided as so-called packaged software.
  • the present technology can also adopt the following configuration.
  • a detection unit that detects a gaze point;
  • An information processing device comprising: a control unit that performs control related to the imaging using information on a gaze area set based on the gaze point.
  • the detection unit generates a three-dimensional map for the predetermined range based on the ranging information, and detects an intersection with the user's line of sight on the three-dimensional map as the point of gaze.
  • Information processing device is not limited to the user's line of sight.
  • the information processing device further comprising a gaze area setting unit that sets an area including the gaze point as the gaze area.
  • the gaze area setting unit sets, as the gaze area, an area in which the left, right, top, and bottom edge portions of each area are located at predetermined distances from the gaze point.
  • the gaze area setting unit specifies, as a gaze object, an object that includes the gaze point among the objects detected in the object detection process targeting the real space, and specifies an area containing the gaze object as the gaze area.
  • the information processing device set the information processing device according to (3) above.
  • (6) The information processing device according to (5), wherein the gaze area setting unit sets the gaze area so that the gaze object is located at a position within the area specified by an operation in advance.
  • the control unit estimates whether or not the gaze point has moved to another object based on the results of multiple gaze point detections by the detection unit, and when it is estimated that the gaze point has moved to another object. , performing a switching process to apply the gaze area based on the gaze point newly detected by the detection unit as the gaze area used for control related to the imaging; the information according to any one of (1) to (6) above; Processing equipment. (8) The information processing according to (7) above, wherein the control unit estimates whether the point of gaze has moved to another object based on range information of the object detected by the object detection process targeting the real space. Device.
  • the control unit controls the control unit when the first condition and a second condition different from the first condition are satisfied.
  • the information processing device according to (7) or (8) above which performs switching processing.
  • the information processing device according to (9), wherein the second condition is that the point of gaze is estimated to be on another object for a certain period of time or more.
  • the information processing device according to (9), wherein the second condition is that the imaging direction is directed in the direction where the other object exists.
  • the control unit changes at least one of the position and size of the gaze area in stages when switching to the gaze area of the different object. Device.
  • the information processing device performs control related to recording of a captured image obtained by the imaging as control related to the imaging.
  • control unit performs control related to the imaging to record a captured image obtained by the imaging and information indicating the gaze area.
  • the control unit performs display control related to a through image of a captured image obtained by the imaging as control related to the imaging.
  • the control unit controls so that, when the gaze area exists in the captured image, an extracted image obtained by extracting the gaze area from the captured image is displayed as a through image. Processing equipment.
  • the control unit controls so that notification information is displayed to the user when the gaze area approaches an end of the captured image within a predetermined distance.
  • the information processing device described.
  • the information processing device The user in the real space based on distance measurement information indicating the distance measurement result for a predetermined range including the imaging range that is the target range for imaging in the real space and estimated information on the user's line of sight and eye position.
  • An information processing method comprising: detecting a gaze point, and controlling the imaging using information on a gaze area set based on the gaze point.
  • a recording medium on which a program readable by a computer device is recorded The user in the real space based on distance measurement information indicating the distance measurement result for a predetermined range including the imaging range that is the target range for imaging in the real space and estimated information on the user's line of sight and eye position.
  • a recording medium on which a program is recorded that causes the computer device to execute a process of detecting a gaze point of and controlling the imaging using information of a gaze area set based on the gaze point.

Abstract

いわゆる「ながら撮像」が行われた場合であってもユーザが注視する物体を適切に捉えた撮像画像が提供されるように図ることが可能な、「ながら撮像」を行う場合に好適な撮像制御技術を実現する。 本技術に係る情報処理装置は、実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて実空間上におけるユーザの注視点を検出する検出部と、注視点に基づき設定された注視領域の情報を用いて、撮像に係る制御を行う制御部とを備えている。

Description

情報処理装置、情報処理方法、記録媒体
 本技術は、情報処理装置とその方法、及びプログラムが記録された記録媒体に関するものであり、特には、撮像に係る制御のための情報処理技術に関する。
 撮像装置として各種の装置が普及している。例えば近年では、カメラ付きのスマートフォンにより撮像を行うことが一般的に行われている。
 なお、関連する従来技術については下記特許文献1を挙げることができる。下記特許文献1には、ユーザのアイトラッキングを行った結果に基づき、ユーザが注視する物体を検出する技術が開示されている。
特開2019-141620号公報
 ここで、スマートフォン等の携帯型の撮像装置を用いた撮像については、ユーザが撮像装置を対象とする物体側に向けるように保持した状態で、撮像装置の画面越しではなく対象とする物体を直接見ながら撮像を行うという、いわゆる「ながら撮像」が行われる場合がある。
 このような「ながら撮像」では、ユーザは撮像装置の画面ではなく対象物体を注視しているため、対象物体が撮像画像からフレームアウトしていないか等、適切なフレーミングであるかを確認したり、対象物体に対する適切なフォーカシング、露出調整等が行われているか等をユーザが確認し難いものとなる。
 従って、撮像画像内に対象物体を適切に捉えられた撮像画像を得ることが困難となってしまう。
 本技術は上記事情に鑑み為されたものであり、いわゆる「ながら撮像」が行われた場合であってもユーザが注視する物体を適切に捉えた撮像画像が提供されるように図ることが可能な、「ながら撮像」を行う場合に好適な撮像制御技術を実現することを目的とする。
 本技術に係る情報処理装置は、実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて前記実空間上における前記ユーザの注視点を検出する検出部と、前記注視点に基づき設定された注視領域の情報を用いて、前記撮像に係る制御を行う制御部と、を備えるものである。
 ここで言う「撮像に係る制御」とは、例えば撮像画像の記録に係る制御や、撮像画像の表示に係る制御や、撮像に係る各種パラメータ、例えばフォーカスやズーム、露出等のパラメータの調整制御等や、撮像に係る各種情報の通知制御等、撮像に関する制御を広く意味するものである。上記構成によれば、ユーザが撮像装置を対象とする物体側に向けるように保持した状態で、撮像装置の画面越しではなく対象とする物体を直接見ながら撮像を行う、いわゆる「ながら撮像」を行っても、上記の制御部によってユーザの注視領域の情報を用いた撮像に係る制御が行われることで、注視物体を適切に捉えた撮像画像がユーザに提供されるように図ることが可能となる。
 また、本技術に係る情報処理方法は、情報処理装置が、実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて前記実空間上における前記ユーザの注視点を検出し、前記注視点に基づき設定された注視領域の情報を用いて、前記撮像に係る制御を行う情報処理方法である。
 このような情報処理方法によっても、上記した本技術に係る情報処理装置と同様の作用が得られる。
 また、本技術に係る記録媒体は、コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて前記実空間上における前記ユーザの注視点を検出し、前記注視点に基づき設定された注視領域の情報を用いて、前記撮像に係る制御を行う処理を、前記コンピュータ装置に実行させるプログラムが記録された記録媒体である。
 このような記録媒体により、上記した本技術に係る情報処理装置を実現可能となる。
本技術に係る第一実施形態としての情報処理装置の構成例を示したブロック図である。 測距情報(距離画像)に基づく三次元マップの生成手法についての説明図である。 注視領域の設定例についての説明図である。 注視領域の抽出画像を表示する例の説明図である。 注視物体がフレームアウトしそうになった場合の撮像範囲と注視領域との関係を例示した図である。 注視物体がフレームアウトしそうになった場合の表示例についての説明図である。 注視点が撮像画像内に存在しない場合の表示例についての説明図である。 注視領域の段階的変化制御の第一例についての説明図である。 注視領域の段階的変化制御の第二例についての説明図である。 別物体の注視領域への切り替えを行う際の表示遷移の例を示した図である。 第一実施形態における撮像画像の記録に係る処理例を示したフローチャートである。 図11に示す注視点検出・設定処理のフローチャートである。 第一実施形態における撮像画像の表示に係る処理例を示したフローチャートである。 第二実施形態としての情報処理装置の構成例を示したブロック図である。 第二実施形態における撮像画像の記録に係る処理例を示したフローチャートである。 図15に示す注視点検出・設定処理のフローチャートである。
 以下、添付図面を参照し、本技術に係る実施形態を次の順序で説明する。
<1.第一実施形態>
(1-1.情報処理装置の構成例)
(1-2.第一実施形態としての撮像制御手法)
(1-3.処理手順)
<2.第二実施形態>
<3.変形例>
<4.実施形態のまとめ>
<5.本技術>
<1.第一実施形態>
(1-1.情報処理装置の構成例)
 図1は、本技術に係る第一実施形態としての情報処理装置1の構成例を示したブロック図である。
 ここでは、情報処理装置1がスマートフォンとしての装置形態を採る前提で説明を行うが、後述もするように本技術に係る情報処理装置としてはスマートフォン以外の装置形態も採り得るものである。
 図1において、情報処理装置1は、自己位置・姿勢推定部2、測距部3、カメラ部4、演算部5、視線・目位置推定部6、表示部7、メモリ部8、及び操作部9を備えている。
 自己位置・姿勢推定部2は、情報処理装置1の自己位置及び姿勢を推定する。本例において自己位置・姿勢推定部2は、IMU(Inertial Measurement Unit:慣性計測ユニット)を有して構成され、IMUの検出情報に基づいて情報処理装置1の自己位置及び姿勢を推定する。ここでの自己位置としては、実空間の座標系(ワールド座標系)における位置情報として推定する。また、姿勢の情報としては、情報処理装置1のヨー、ピッチ、ロールの各方向の傾きを示す情報を検出する。
 測距部3は、実空間上における所定範囲を対象とした測距結果を示す測距情報を得る。ここでは、測距部3は、LiDAR(Light Detection and Ranging)方式の一種であるToF(Time of Flight)方式による測距を行う例とする。公知のようにToF方式では、測距対象とする空間に対して例えば赤外光等の所定波長帯の光を投光し、対象からの反射光を受光した結果に基づき、測距が行われる。このとき、測距センサとしては、受光素子を有する画素が二次元配列されたセンサが用いられる。この場合の測距処理としては、画素ごとに、受光信号に基づく所定演算を行って、対象までの距離を画素ごとに求める処理となる。換言すれば、画素ごとに対象までの距離を示す画像である距離画像を得る処理として行われるものである。
 ここで、測距部3が実空間上で測距を行う対象とする上記の所定範囲は、少なくともカメラ部4による撮像の対象範囲である撮像範囲を含む範囲となるように定められている。換言すれば、少なくともカメラ部4の撮像範囲内に存在する物体については測距結果が得られるように図られている。
 カメラ部4は、CCD(Charge Coupled Devices)型イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等のイメージセンサを備えて構成され、撮像画像を得る。本例において、カメラ部4が備えるイメージセンサは、RGB画像を得るためのRGBセンサとして構成される。RGB画像とは、画素ごとにR(赤色)の輝度値、G(緑色)の輝度値、B(青色)の輝度値を示す画像(カラー画像)を意味する。
 カメラ部4には、撮像を行うためのレンズ等の各種光学素子が配置された撮像光学系が設けられ、被写体からの光が該撮像光学系を介してイメージセンサの受光面において受光される。撮像光学系には、フォーカシング(ピント位置調整)のためのフォーカスレンズや、絞り等の光学素子が設けられる。なお、撮像光学系には、ズーミングのためのズームレンズが設けられる場合もある。
 また、カメラ部4には、イメージセンサにより得られた撮像画像について画像信号処理を行う画像信号処理部も設けられる。ここでの画像信号処理としては、例えばイメージセンサから出力されたRAW画像に対するデモザイク処理や欠陥画素の補間処理、ノイズリダクション処理、ホワイトバンランス調整処理等を挙げることができる。
 ここで、カメラ部4による撮像方向は、後述する表示部7の表示画面7aが向く方向とは逆方向とされる。
 演算部5は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等を有するマイクロコンピュータを備えて構成されており、CPUが上記のROMやメモリ部8等の所定の記憶装置に記憶されたプログラムに従った処理を実行することで、情報処理装置1の各種機能を実現させる。
 なお、演算部5が実現する各種の機能については後に改めて説明する。
 視線・目位置推定部6は、ユーザの視線及び目位置を推定する。本例において、視線・目位置推定部6は、情報処理装置1に設けられたインナーカメラの撮像画像に基づいてユーザの視線方向、及び目位置を推定する。ここで言うインナーカメラとは、表示部7の表示画面7aが向く方向と同方向側を撮像するように設けられたカメラを意味する。インナーカメラにより、情報処理装置1を把持するユーザの顔を撮像することが可能となり、該インナーカメラの撮像画像に基づき、ユーザの視線方向、及び目位置を推定することができる。
 ここで、情報処理装置1においては、自己位置・姿勢推定部2によりワールド座標系における情報処理装置1の位置及び姿勢が推定されるため、これら情報処理装置1の位置及び姿勢の情報と、インナーカメラのカメラパラメータ(焦点距離等)とに基づき、インナーカメラの撮像画像で検出されたユーザの目についての、ワールド座標系での位置を推定することができる。
 なお、ユーザの視線及び目位置を推定するための構成としては、上記のようにインナーカメラを用いる構成に限定されるものではない。例えば、視線検出用のカメラを有する頭部装着型装置をユーザの頭部に装着させてユーザの視線方向、及び目位置を推定する構成も考えられる(この場合、視線・目位置推定部6は、情報処理装置1とは別体とされる)。頭部装着型装置とすることで、視線方向は、ユーザの目の近傍に配置されたカメラによる撮像画像に基づき推定することができる。また、頭部装着型装置とした場合、ユーザの目位置については、視線推定用のカメラの位置として推定することが考えられる。或いは、目位置については、大まかにユーザの頭部位置として推定することも可能であり、その場合には、視線推定用のカメラの位置ではなく、当該頭部装着型装置が推定した自己位置をユーザの目位置の推定結果として用いることも可能である。
 表示部7は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等の画像表示が可能なディスプレイを有して構成され、演算部5からの指示に基づく各種の情報表示を行う。例えば表示部7は、演算部5の指示に基づいて、カメラ部4による撮像画像をスルー画として表示画面7a上に表示する。ここで言う「スルー画」とは、撮像中の画像を使用者に確認させるための画像を意味する。
 また表示部7は、演算部5の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
 メモリ部8は、例えばフラッシュメモリやHDD(Hard Disk Drive)等の不揮発性のメモリで構成され、情報処理装置1で扱われる各種データの記憶に用いられる。特に本例において、メモリ部8は、カメラ部4による撮像画像の記録先メモリとして用いられる。
 操作部9は、情報処理装置1が有する各種の操作子や操作デバイスを包括的に示したものである。操作部9としては、例えばキー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。ここで言うタッチパネルは、表示部7の表示画面7a上に対するタッチ操作を検出可能に構成されたものを意味する。
 操作部9によりユーザの操作が検知され、入力された操作に応じた信号は演算部5によって解釈される。
 演算部5が有する実施形態としての各種機能について説明する。
 図1に示すように演算部5は、制御部50、三次元マップ生成部51、注視点検出部52、視線ベクトル計算部53、及び注視領域設定部54としての機能を有する。
 三次元マップ生成部51は、測距部3により得られた測距情報、つまり本例では距離画像と、自己位置・姿勢推定部2が推定した自己位置及び姿勢の情報とに基づき、前記した所定範囲についての三次元マップを生成する。ここでの三次元マップは、距離画像における各画素が捉えた物体(点)ごとに、実空間としての三次元空間上における位置をワールド座標系の座標情報(X,Y,Z)により示した情報である。
 図2を参照し、距離画像に基づく三次元マップの生成手法について説明する。
 先ず、図示のように距離画像の座標系を(u,v)座標系とする。
 測距部3が測距の対象とする範囲内に物体Obが存在する場合、距離画像には、この物体Obが捉えられる。実空間上における物体Ob上の或る点を点P1とする。この点P1は、距離画像上において点P2として捉えられる。
 ここで、距離画像上の或る点、換言すれば或る画素(u,v)で捉えられた実空間上の点の座標(X,Y)は、情報処理装置1の自己位置、及び姿勢に基づいて求めることができる。具体的に、情報処理装置1の自己位置、及び姿勢が分かれば、それらの情報から、或る画素(u,v)の位置をワールド座標系における位置(X,Y)に変換するための変換式を求めることができるため、該変換式を用いて、距離画像における各画素の位置(u,v)をワールド座標系における位置(X,Y)に変換する。
 また、Z方向についても、情報処理装置1の自己位置、及び姿勢が分かれば、それらの情報から、或る画素(u,v)で測定された距離zをワールド座標系におけるZ方向の座標に変換するための変換式を求めることができる。従って、該変換式を用いて、距離画像における各画素の距離zを、ワールド座標系における位置(Z)に変換する。
 例えば上記のような手法により、三次元マップ生成部51は、測距部3により得られた距離画像と自己位置・姿勢推定部2が推定した自己位置及び姿勢の情報とに基づき、三次元マップを生成する。
 図1において、視線ベクトル計算部53は、視線・目位置推定部6より入力されたユーザの視線方向の情報に基づき、実空間上でのユーザの視線方向を示すベクトルである視線方向ベクトルを計算し、計算した視線方向ベクトルを注視点検出部52に出力する。
 注視点検出部52は、三次元マップ生成部51が生成した三次元マップと、視線ベクトル計算部53より入力される視線方向ベクトルと、視線・目位置推定部6が推定したユーザの目位置の情報とに基づき、ユーザの注視点を検出する。具体的に、注視点検出部52は、三次元マップ上におけるユーザの視線との交点を注視点として検出する。
より具体的に、注視点検出部52は、視線方向ベクトルとユーザの目位置の情報とに基づき、三次元マップ上(つまりワールド座標系)におけるユーザの視線(目位置から視線方向ベクトルが示す方向に延在する線)を求め、三次元マップにおける該視線との交点を注視点として検出する。
 なお以下、このようにワールド座標系において検出された注視点のことを「三次元注視点Pr」と表記する。
 注視領域設定部54は、注視点検出部52が検出した注視点に基づき、ユーザが注視していることが推定される領域としての注視領域を設定する。本例において、この注視領域としては、少なくとも注視点を内包する領域として設定する。
 ここで、本例における注視領域設定部54は、注視領域としては、ワールド座標系における領域として設定するのではなく、カメラ部4による撮像画像の座標系(以下「カメラ座標系」と表記)における領域として設定する。以下、このようにカメラ座標系における領域として設定される注視領域のことを「注視領域Aa」と表記する。
 この注視領域Aaの設定にあたり、注視領域設定部54は、注視点検出部52が検出した三次元注視点Prを、カメラ座標系における注視点に変換する。この変換は、前述した距離画像の座標系とワールド座標系との間の位置変換の手法と同様に、情報処理装置1の自己位置と姿勢の推定情報に基づいて行うことができる。
 以下、カメラ座標系における注視点については「画像上注視点Pi」と表記する。
 図3を参照し、注視領域Aaの設定例について説明する。
 図3Aは、画像上注視点Piを領域内の中心に位置させるように注視領域Aaを設定する例である。
 図3Bは、いわゆる三分割法に対応した領域内位置に画像上注視点Piを位置させるように注視領域Aaを設定する例である。この場合、領域を縦横に三分割する線上や交点に対して画像上注視点Piを位置させる。
 図3A、図3B何れの場合も、注視領域設定部54は、左右上下の各領域端部の位置を画像上注視点Piからそれぞれ所定距離となる位置とした領域を、注視領域Aaとして設定することになる。
 ここで、注視領域Aa内の何れの位置に注視点を位置させるかや、注視領域Aaのアスペクト比等については、ユーザ操作に従ってもよい。換言すれば、注視領域Aaが注視点をどのような構図で捉えるかを、ユーザ操作に基づいて決定するものである。
 その場合、演算部5(例えば制御部50)は、予め定められた複数の構図から任意の構図を選択する操作の受け付けを行う。そして、注視領域設定部54は、選択された構図に対応した位置に画像上注視点Piが位置されるように、選択された構図に対応したアスペクト比による注視領域Aaの設定を行う。
 図1において、制御部50は、情報処理装置1の全体制御を行う。例えば、自己位置・姿勢推定部2、測距部3、カメラ部4、及び視線・目位置推定部6についての動作の実行指示や停止指示、表示部7の表示制御、操作部9からの操作入力情報の処理等を行う。
 特に、本実施形態における制御部50は、注視領域設定部54が設定した注視領域Aaの情報を用いて、カメラ部4による撮像に係る制御を行う。
 ここで言う「撮像に係る制御」とは、例えば撮像画像の記録に係る制御や、撮像画像の表示に係る制御や、撮像に係る各種パラメータ、例えばフォーカスやズーム、露出等のパラメータの調整制御等や、撮像に係る各種情報の通知制御等、撮像に関する制御を広く意味するものである。
(1-2.第一実施形態としての撮像制御手法)
 以下、制御部50が行う撮像に係る制御について説明する。
 該撮像に係る制御として、制御部50は、カメラ部4により得られる撮像画像の記録に係る制御を行う。具体的に、本例における制御部50は、カメラ部4により得られる撮像画像と、注視領域Aaを示す情報とをメモリ部8に記録させる制御を行う。
 これにより、撮像終了後において、記録された注視領域Aaの情報に基づいて、撮像画像から注視領域を抽出した画像を編集等により容易に作成することが可能となる。また、撮像画像そのものが記録されるため、撮像画像から注視領域を抽出した抽出画像を記録する場合と比較して、撮像時に注視点の検出が失敗した際のリスク低減にもなる。
 また、制御部50は、撮像に係る制御として、カメラ部4により得られる撮像画像のスルー画に係る表示制御を行う。
 具体的に、制御部50は、撮像画像内に注視領域Aaが存在する場合に、撮像画像から注視領域Aaを抽出した抽出画像がスルー画として表示されるように制御する。
 例えば、図4Aに示すように、注視領域Aaが撮像画像内に存在することが確認されたことに応じて、制御部50は、図4Bに示すように、表示画面7a上に、撮像画像から注視領域Aaを抽出した抽出画像がスルー画として表示されるように制御する。図4Bでは、抽出画像を拡大して、表示画面7a上に全画面表示する例を示している。
 上記のように抽出画像をスルー画として表示画面7a上に表示することで、注視領域Aaの情報に従って抽出される画像のイメージをユーザに確認させることができる。
 また、抽出画像を拡大表示することで、抽出画像の視認性を高めることができる。
 ここで、制御部50は、上記のような注視領域Aaの抽出表示が行われている状態において、ユーザが表示画面7aを一定時間以上目視した場合には、抽出表示を解除する。すなわち、撮像画像の全体が表示画面7aに収まるように表示部7に撮像画像を表示させる。このとき、表示画面7aには、注視領域Aaの範囲を示す枠を表示させることが望ましい。
 ユーザが表示画面7aを一定時間以上目視したか否かの判定は、例えば視線・目位置推定部6によるユーザの視線方向の推定結果に基づき行うことができる。
 ここで、「ながら撮像」を前提とした場合、抽出表示中にユーザが表示画面7aを一定時間以上目視した場合には、撮像対象としたい物体を捉え続けることができるかについてユーザが不安を抱いていると推定することができる。よって、上記のようにユーザが表示画面7aを一定時間以上目視した場合には、抽出表示から撮像画像全体の表示に切り替えることで、撮像対象としたい物体が撮像範囲内のどこに位置しているかをユーザに確認させる。これにより、ユーザの不安の解消を図ることができる。
 また、制御部50は、注視領域Aaが撮像画像の端部に対して所定距離以内に近づいた場合に、ユーザに対して通知情報が表示されるように制御する。これは、ユーザが注視する物体(注視物体)がフレームアウトしそうになったことに応じて、その旨をユーザに通知する制御と換言できる。
 図5では、ユーザの注視物体とカメラ部4の撮像範囲との相対的な位置関係の変化に応じて、注視物体が撮像範囲の左下端部に近づくことで、注視領域Aaが撮像画像の左下端部に近づいた例を示している。
 このように注視領域Aaが撮像画像の端部に対して近づいた場合、制御部50は、図6Aに示すように注視領域Aaの抽出表示を行っていた状態から、図6Bに示すように抽出表示を解除して、撮像画像全体が表示画面7a上に表示されるように制御する。
 またこれと共に制御部50は、表示画面7a上に、注視物体がフレームアウトしそうである旨を通知するためのメッセージ画像M1を表示させる。さらに本例の場合、制御部50は、表示画面7a上に注視領域Aaの範囲を示す領域枠Waを表示させる。
 また、制御部50は、注視点が撮像画像内に存在しない場合は、特定画像が表示されるように制御する。
 具体的に、本例における制御部50は、注視点が撮像画像内に存在しない場合は、例えば図7に例示するようなメッセージ画像M2、及び方向通知画像I1が表示画面7a上に表示されるように制御する。メッセージ画像M2は、少なくとも注視物体が撮像範囲からフレームアウトした旨をユーザに通知するためのメッセージ情報を含む画像である。
 また、方向通知画像I1は、注視物体がフレームアウトした方向をユーザに通知するための画像であり、図中では注視物体のフレームアウト方向を示す矢印を含む画像とした例を示している。本例では、メッセージ画像M2には、方向通知画像I1の矢印が示す方向に注視物体がフレームアウトした旨を通知するメッセージ情報を含ませている。
 なお、注視物体がフレームアウトしそうである旨の通知や、フレームアウトした旨の通知については、上記で例示したような視覚情報による通知に限定されるものではなく、例えば音(聴覚情報)による通知や振動等の触覚情報による通知を行うことも考えられる。
 また、フレームアウト方向の通知に関しても、方向通知画像I1のような視覚情報による通知に限らず、聴覚情報や触覚情報による通知を行うことも考えられる。
 また、制御部50は、注視物体の切替に係る制御を行う。すなわち、制御部50は、注視点検出部52による複数回の注視点検出結果に基づき、注視点が別物体に移動したか否かの推定を行い、注視点が別物体に移動したと推定した場合に、注視点検出部が新たに検出した注視点に基づく注視領域Aaを撮像に係る制御に用いる注視領域Aaとして適用する切替処理を行う。
 第一実施形態において、注視点が別物体に移動したか否かの推定は、新たな三次元注視点Prが検出された場合に、該新たな三次元注視点Prが、直前に適用されていた三次元注視点Prから所定距離以上離れているか否かの判定として行う。第一実施形態では、撮像画像について物体検出処理を実行しないことから、三次元注視点Prが存在する物体を特定することができないため、例えばこのような手法により注視点が別物体に移動したかを推定する。
 ここで、本例において制御部50は、上記のような推定処理で注視点が別物体に移動したと推定されたのみでは、切替処理を実行しない。具体的に、制御部50は、注視点が別物体に移動したと推定したことを第一条件としたとき、第一条件と、第一条件とは異なる第二条件とが満たされた場合に切替処理を行う。
 ここで、第二条件としては、注視点が別物体にあると推定される状態が一定時間以上経過したとの条件とすることが考えられる。
 この場合、制御部50は、上述した推定処理により三次元注視点Prが別物体に移動したと推定した場合に、この推定のタイミングで検出された三次元注視点Prを基準注視点として、その後に検出される三次元注視点Prが、基準注視点から所定の距離範囲内にある状態が一定時間以上経過したか否かを判定する。例えばこのような判定により、注視点が別物体にあると推定される状態が一定時間以上経過したか否かを判定することができる。
 そして、注視点が別物体にあると推定される状態が一定時間以上経過したと判定したことに応じて、上記の切替処理を行う。
 或いは、第二条件としては、撮像方向が別物体の存在する方向に向けられたとの条件とすることも考えられる。
 この場合、制御部50は、上述した推定処理により三次元注視点Prが別物体に移動したと推定した場合に、例えば自己位置・姿勢推定部2により推定される情報処理装置1の自己位置及び姿勢の情報に基づき、カメラ部4の撮像方向が別物体の存在する方向に向けられているか否かを判定し、該判定により肯定結果が得られたことに応じて、上記の切替処理を行う。
 また、制御部50は、注視点が別物体にあると推定された場合の注視領域Aaの切替について、次のような制御も行う。
 すなわち、制御部50は、別物体の注視領域Aaに切り替えを行う際、注視領域Aaの位置、サイズの少なくとも一方を段階的に変化させる制御を行う。
 図8及び図9を参照して、このような注視領域Aaの段階的変化制御の例を説明する。
 図8は、注視領域Aaの段階的変化制御の第一例についての説明図である。
 ここでは、切替元の注視物体を物体Ob1、切替先の注視物体を物体Ob2とする。
 この場合、制御部50は、図8Aから図8Cの遷移として示すように、注視領域Aaの位置を、切替元の物体Ob1に設定されていた注視領域Aaから、切替先の物体Ob2に対応する注視領域Aaの位置まで段階的に変化させる。この段階的な注視領域Aaの位置変化過程において、注視領域Aaのサイズについては不変としてもよいし変化させてもよい。
 図9は、注視領域Aaの段階的変化制御の第二例についての説明図である。
 この場合、制御部50は、図9Aから図9Cの遷移として示すように、注視領域Aaのサイズを、一旦、切替元の物体Ob1と切替先の物体Ob2の双方を包含するサイズに拡大させた上で、切替先の物体Ob2に対応する注視領域Aaに変化させる。
 第一実施形態において、図9Bのように物体Ob1と物体Ob2の双方を包含する注視領域Aaのサイズとしては、少なくとも、前述した第一条件の成立直前に適用されていた注視点と、第一及び第二条件の双方の成立タイミングに対応する注視点の検出タイミングで検出された注視点とが包含されるサイズとして定めればよい。
 なお、確認のため述べておくと、図9Cに示す物体Ob2に対応する注視領域Aaのサイズは、本例ではユーザにより予め選択された構図の情報に基づくサイズとなる。
 上記の第一例及び第二例として例示したように、別物体の注視領域Aaへの切り替えを行うにあたり注視領域Aaの位置、サイズの少なくとも一方を段階的に変化させるようにすることで、注視領域が急激に変化してしまうことの防止を図ることが可能となる。
 従って、撮像画像における注視領域を抽出して得られる抽出画像をユーザに提供する場合において、該抽出画像の画像内容が急激に変化してしまうことの防止を図ることができ、該注視画像を表示した場合の違和感の緩和を図ることができる。
 また、制御部50は、上記のような別物体の注視領域Aaへの切り替えを、表示部7の表示画像にも反映させる。
 図10は、別物体の注視領域Aaへの切り替えを行う際の表示遷移の例を説明するための図である。ここでは、図8のように注視領域Aaの位置を段階的に変化させる場合を前提とした例で説明するが、図9のようにサイズを段階的に変化させる場合にも同様に表示に反映させることができる。
 先ず、前述した第一条件及び第二条件が非成立の状態では、注視領域Aaは切替元の物体Ob1に対応して設定されている。前述のように本例では、注視領域Aaが設定された場合には、注視領域Aaの抽出画像が表示されるため、第一条件及び第二条件が非成立の状態では、図10Aに示すように、物体Ob1に対応する注視領域Aaの抽出画像が表示画面7aに表示されている。
 そして、第一条件及び第二条件の双方が成立した場合、制御部50は、注視領域Aaの抽出表示を解除し、すなわち撮像画像全体の表示状態とし、図10Bのように物体Ob1に対応した注視領域Aaを示す領域枠Waを撮像画像に重畳表示させる。
 その後、制御部50は、図8で説明した注視領域Aaの位置遷移と同様の位置遷移となるように、表示画面7a上での(撮像画像上での)領域枠Waの表示位置を遷移させる(図10Bから図10Dの遷移を参照)。そして、このような領域枠Waの表示位置の遷移が完了したことに応じて、図10Eに示すように、遷移完了時の注視領域Aaの抽出画像を、表示画面7aに表示させる。
(1-3.処理手順)
 図11から図13のフローチャートを参照し、上記した第一実施形態としての撮像制御手法を実現するための具体的な処理手順例を説明する。
 なお、これら図11から図13に示す処理は、演算部5のCPUが例えば演算部5におけるROMやメモリ部8等の所定の記憶装置に記憶されたプログラムに基づき実行する。なお以下、処理の実行主体については演算部5と表記する。
 図11は、撮像画像の記録に係る処理を示したフローチャートである。なお、ここでは、撮像画像は動画像であり、動画像についての記録を行う場合を例示する。
 先ず、演算部5はステップS101で、アプリ起動条件成立を待機する。ここで言うアプリ(アプリケーションプログラム)は、上述した第一実施形態としての撮像制御手法を実現するためのアプリであり、演算部5はステップS101で、該アプリの起動操作等、予め定められたアプリの起動条件が成立するまで待機する。
 ステップS101でアプリ起動条件が成立したと判定した場合、演算部5はステップS102に進み、測距、自己位置・姿勢、及び視線・目位置の推定の開始処理を行う。すなわち、測距部3による測距(本例では距離画像の生成)、自己位置・姿勢推定部2による情報処理装置1の自己位置及び姿勢の推定、及び視線・目位置推定部6によるユーザの視線及び目位置の推定を開始させる処理である。
 ステップS102に続くステップS103で演算部5は、注視点検出・設定処理を実行する。このステップS103の注視点検出・設定処理は、三次元注視点Prの検出や、撮像に係る制御に適用する三次元注視点Prの設定を行う処理となる。
 図12は、ステップS103の注視点検出・設定処理を示したフローチャートである。
 先ず、演算部5はステップS150で、測距情報、及び自己位置・姿勢の情報に基づき、三次元マップを生成する。すなわち、測距部3により得られる測距情報(距離画像)、及び自己位置・姿勢推定部2により得られる情報処理装置1の自己位置及び姿勢の情報に基づき、前述した手法により三次元マップを生成する。
 ステップS150に続くステップS151で演算部5は、三次元マップ、視線ベクトル、目位置の情報に基づき、三次元注視点検出処理を実行する。すなわち、ステップS150で生成した三次元マップと、自己位置・姿勢推定部2により推定された情報処理装置1の自己位置及び姿勢の情報と、視線・目位置推定部6により推定されたユーザの視線及び目位置の情報とに基づき、三次元マップ上におけるユーザの視線との交点を三次元注視点Prとして検出する。
 ステップS151に続くステップS152で演算部5は、注視点が検出されたか否かを判定する。すなわち、ステップS151の検出処理によって三次元注視点Prが検出されたか否かを判定する。
 ステップS152において、注視点が検出されたと判定した場合、演算部5はステップS153に進み、前回の設定注視点から離れているか否かを判定する。
 ここで、設定注視点とは、撮像に係る制御に適用する三次元注視点Prを意味する。検出された三次元注視点Prと設定注視点とを区別するのは、本例では、検出された三次元注視点Prを直ちに撮像に係る制御に適用する注視点とすべきでないことによる。例えば、前述した注視領域Aaの切り替えの際には注視領域Aaの位置を段階的に変化させるため、注視点は、検出された注視点とは異なる注視点に設定すべき状態が生じる。このため本例では、設定注視点として、撮像に係る制御に適用する注視点を検出された注視点とは異なる注視点に設定可能としている(ステップS154、S156、S159等を参照)。
 ステップS153においては、今回のステップS151の処理で検出された三次元注視点Prが、前回の設定注視点から所定距離以上離れているか否かの判定を行う。これは、前述した別物体への注視領域Aaの切り替えに係る第一条件の成立判定を行っていることに相当する。
 ステップS153において、今回のステップS151の処理で検出された三次元注視点Prが、前回の設定注視点から所定距離以上離れておらず、前回の設定注視点から離れていないとの判定結果を得た場合、演算部5はステップS154に進み、今回の注視点として、検出された注視点を設定する。すなわち、今回の設定注視点として、今回のステップS151の処理で検出された三次元注視点Prを設定する。
 ステップS154の処理を実行した場合、演算部5はステップS103の注視点検出・設定処理を終える。
 また、先のステップS152において、注視点が検出されなかったと判定した場合、演算部5はステップS155に処理を進め、注視点非検出の状態が一定時間以上継続したか否かを判定する。ステップS151の処理で連続して三次元注視点Prが検出されない状態が一定時間以上経過したか否かを判定する。
 ステップS155において、注視点非検出の状態が一定時間以上継続していないと判定した場合、演算部5はステップS156に進み、前回の設定注視点を今回の注視点として設定する。これにより、例えばユーザの視線や目位置の推定に失敗した場合等、何らかの要因により注視点が非検出となったとしても、その状態が瞬間的なものであれば、前回の設定注視点が引き継がれるものとなり、瞬間的な注視点のロストに反応して注視点が設定される状態と非設定の状態とが頻繁に切り替わってしまうことの防止を図ることができる。
 ステップS156の処理を実行した場合、演算部5はステップS103の注視点検出・設定処理を終える。
 一方、ステップS155において、注視点非検出の状態が一定時間以上継続したと判定した場合、演算部5はステップS157に進んで注視点なしと設定し、ステップS103の注視点検出・設定処理を終える。
 また、先のステップS153において、前回の設定注視点から離れていると判定した場合(切り替えの第一条件が成立した場合)、演算部5はステップS158に進み、注視点切替条件成立か否かを判定する。すなわち、前述した第二条件が成立したか否かを判定する。具体的に本例では、注視点が別物体にあると推定される状態が一定時間以上経過したか否か、又は、カメラ部4の撮像方向が別物体の存在する方向に向けられているか否かを判定する。
 ステップS158において、注視点切替条件が成立していないと判定した場合、演算部5はステップS159に進み、前回の設定注視点を今回の注視点として設定し、ステップS103の注視点検出・設定処理を終える。つまりこの場合、別物体の注視領域Aaへの切り替えは行われない。
 一方ステップS158において、注視点切替条件が成立していないと判定した場合、演算部5はステップS160に進み、注視点の切替処理を実行する。すなわち、先の図8や図9を参照して説明した態様で注視領域Aaの位置やサイズが段階的に変化されるように、三次元注視点Prの位置を、現状の設定注視点の位置から、今回のステップS151の処理で検出された三次元注視点Prの位置まで段階的に変化させる処理を行う。このとき、演算部5は、三次元注視点Prを変化させるごとに、変化後の三次元注視点Prを設定注視点として設定する。三次元注視点Prが設定されると、その三次元注視点Prに基づく注視領域Aaが後述するステップS114(図11)で設定された上で、ステップS115で該注視領域Aaを示す注視領域情報がメモリ部8に記録されることになる。
 演算部5は、ステップS160の処理を実行したことに応じ、ステップS103の注視点検出・設定処理を終える。
 説明を図11に戻す。
 演算部5は、ステップS103の注視点検出・設定処理を実行したことに応じ、ステップS104に処理を進める。
 ステップS104で演算部5は、録画中フラグがONであるか否かを判定する。録画中フラグは、カメラ部4による撮像画像(本例では動画像)についての録画ステータスを示すフラグであり、ONが録画中を、OFFが非録画中を示す。録画中フラグは、後述するステップS109で録画開始に応じてONされる。
 このステップS104の処理を設けることで、録画開始前の状態において注視領域Aaを設定することが可能となり、録画開始前の表示画面7a上において注視領域Aaの抽出画像を表示したり、注視領域Aaを示す領域枠Waを表示したりすることが可能となる。
 ステップS104において、録画中フラグがONでないと判定した場合、演算部5はステップS105に処理を進める。
 図中、ステップS105からS108の処理により、演算部5は、次フレーム開始、録画開始、録画終了、アプリ終了の何れかを待機するようにされる。ここでのフレームは、撮像画像のフレームを意味する。
 具体的に、ステップS105で演算部5は、次フレーム開始か否かを判定し、次フレーム開始でないと判定とした場合は、ステップS106で録画開始か否か、すなわち、例えばユーザによる録画開始操作等の所定条件が成立したか否かを判定する。ステップS106において、録画開始ではないと判定した場合、演算部5はステップS107に進んで録画終了か否か、すなわち例えばユーザによる録画終了操作等の所定条件が成立したか否かを判定し、録画終了でないと判定した場合は、ステップS108に進んでアプリ終了か否か、すなわちアプリの終了操作等の所定条件が成立したか否かを判定する。アプリ終了ではないと判定した場合、演算部5はステップS105に戻る。
 ステップS106において、録画開始と判定した場合、演算部5はステップS109に進み、録画中フラグをONとし、続くステップS110で撮像画像の記録開始のための処理を行う。すなわち、カメラ部4により得られる動画像としての撮像画像のメモリ部8に対する記録を開始させる。
 このステップS110の記録開始処理を実行したことに応じ、演算部5はステップS105に戻る。
 また、ステップS107において、録画終了と判定した場合、演算部5はステップS111に進み、撮像画像の記録終了のための処理、すなわち、ステップS110で開始した撮像画像の記録を終了させる処理を実行した上で、ステップS112で録画中フラグをOFFとし、ステップS105に戻る。
 ステップS105において、次フレーム開始と判定した場合、演算部5はステップS103に戻る。これにより、ステップS103の注視点検出・設定処理はフレームごとに行われる。
 また、先のステップS104において、演算部5は、録画中フラグがONであると判定した場合は、ステップS113に処理を進めて、注視点が設定されたか否かを判定する。すなわち、ステップS103の注視点検出・設定処理により、三次元注視点Prが設定されたか否かを判定する。
 ステップS113において、注視点が設定されたと判定した場合、演算部5はステップS114に進み、注視領域Aaの設定を行う。すなわち、注視領域設定部54として説明したように、設定された三次元注視点Prを画像上注視点Piに変換し、画像上注視点Piに基づいて、ユーザの選択した構図に従った注視領域Aaを設定する処理を行う。
 ステップS114に続くステップS115で演算部5は、注視領域情報を記録する処理を行う。すなわち、ステップS114で設定した注視領域Aaを示す情報、具体的には、例えば注視領域Aaの中心座標と範囲情報とをメモリ部8に記録させる処理を行う。
 これにより、録画中は、メモリ部8に対して撮像画像と共に注視領域Aaを示す注視領域情報が記録される。
 演算部5は、ステップS115の処理を実行したことに応じて、ステップS105に戻る。これにより、録画が継続中の状態では、フレームごとにステップS103の注視点検出・設定処理が行われ、注視点が設定されれば、ステップS114及びS115の処理が行われることで、設定された注視点に応じた注視領域Aaの情報が、そのフレームに対応する注視領域Aaの情報として記録されるようにすることができる。
 一方、ステップS113において、注視点が設定されなかったと判定した場合、演算部5はステップS114及びS115の処理をパスしてステップS105に戻る。
 これにより、録画が継続中の状態において、注視点が設定されなかったフレームについては、注視領域Aaの情報が記録されない。
 演算部5は、先のステップS108でアプリ終了と判定したことに応じて、図11に示す一連の処理を終える。
 図13は、撮像画像の表示に係る処理のフローチャートである。
 演算部5は、アプリ起動中においては、図11に示した処理と並行して図13に示す処理を実行する。
 図13において、演算部5はステップS201で、注視点が設定されるまで待機する。すなわち、図11におけるステップS103の注視点検出・設定処理により三次元注視点Prが設定されるまで待機する。
 ステップS201において、注視点が設定されたと判定した場合、演算部5はステップS202に進み、注視領域Aaの抽出表示を行う。すなわち、注視点が設定されたことに応じて、先の図4に例示したように注視領域Aaの抽出表示が表示画面7a上に行われるようにする。
 なお、ステップS202について、現在が録画中であり図11のステップS114で注視領域Aaの設定処理が行われる場合には、該設定処理で設定された注視領域Aaの情報を用いることができる。現在が非録画中の状態では、ステップS202では、設定された三次元注視点Prの情報に基づいて注視領域Aaを設定する処理を行う。
 ステップS202の抽出表示処理を実行したことに応じ、演算部5はステップS203に処理を進める。
 図中のステップS205からS206の処理により、演算部5は、注視領域Aaが撮像画像の端部に近づく、ユーザが画面を一定時間以上見ている、注視点切替、アプリ終了の何れかの状態となるまで待機するようにされる。
 具体的に、ステップS203で演算部5は、注視領域Aaが撮像画像の端部に近づいたか否か、すなわち、前述のように注視領域Aaが撮像画像の端部に対して所定距離以内に近づいたか否かを判定する処理を行い、注視領域Aaが撮像画像の端部に近づいていないと判定した場合は、ステップS204に進み、ユーザが画面を一定時間以上見ているか、すなわち前述のように視線・目位置推定部6により推定されたユーザの視線方向の情報に基づいてユーザが表示画面7aを一定時間以上目視しているか否かを判定する処理を行う。また演算部5は、ステップS204においてユーザが画面を一定時間以上見てないと判定した場合は、ステップS205に進み、注視点切替か否か、すなわち、先の図12におけるステップS158で注視点切替条件が成立したと判定されたか否かを判定し、注視点切替でないと判定した場合はステップS206に進んでアプリ終了か否かを判定する。ステップS206において、アプリ終了であると判定した場合、演算部5はステップS203に戻る。
 ステップS203において、注視領域Aaが撮像画像の端部に近づいたと判定した場合、演算部5はステップS207に進み、抽出表示を解除し、注視領域Aaの枠を表示するための処理を行う。すなわち、ステップS202で開始された注視領域Aaの抽出表示を解除して表示画面7aに撮像画像全体が表示されるようにすると共に、該撮像画像に重畳して領域枠Waを表示させる(図6参照)。このとき、領域枠Waとしては、現在設定中の三次元注視点Prに基づき設定した注視領域Aaを示す領域枠Waが表示されるようにする。
 そして、演算部5は、ステップS207に続くステップS208で、フレームアウト警告通知を行う。すなわち、少なくとも表示画面7a上に図6Bで例示したようなメッセージ画像M1を表示させる処理を行う。なお、ステップS208の警告通知としては、音や振動等、画面表示以外の手法による通知が行われるようにすることもできる。
 ステップS208に続くステップS209で演算部5は、注視点が非設定となったか否かを判定する。すなわち、先の図12のステップS157が実行されて三次元注視点Prが非設定の状態となったか否かを判定する。
 ステップS209において、注視点が非設定となっていないと判定した場合、演算部5はステップS210に進み、抽出表示条件が成立したか否かを判定する。ここでの抽出表示条件としては、例えば、注視領域Aaの撮像画像の端部に対する距離が所定距離以上に戻った等の条件を設定することが考えられる。
 ステップS210で抽出表示条件が成立していないと判定した場合、演算部5はステップS208に戻る。これにより、注視領域Aaの撮像画像の端部に対する距離が所定距離以上に戻った等、抽出表示条件が成立するまでの間は、注視物体がフレームアウトせずステップS209で注視点が非設定となったと判定されない限り、抽出表示が解除された状態が継続すると共にフレームアウト警告通知が継続して行われる。
 一方、ステップS210において抽出表示条件が成立したと判定した場合、演算部5は先のステップS202に戻る。つまり、ステップS210の抽出表示条件が成立した場合は、注視領域Aaの抽出表示状態に戻る。
 また、ステップS209において、注視点が非設定となったと判定した場合、演算部5はステップS211に進み、フレームアウト表示処理を実行する。すなわち、先の図7で例示したようなメッセージ画像M2や方向通知画像I1を表示画面7a上に表示させる処理を行う。
 演算部5は、ステップS211のフレームアウト表示処理を実行したことに応じ、ステップS201に戻る。これにより、注視物体がフレームアウトして注視点が非設定の状態となった以降は、新たに注視点が設定されるまで待機することになる。
 また、演算部5は、先のステップS204でユーザが画面を一定時間以上見ていると判定した場合は、ステップS212に処理を進めて、抽出表示を解除する。
 そして、ステップS212に続くステップS213で演算部5は、抽出表示条件が成立するまで待機する。このステップS213の抽出表示条件としては、例えばユーザが表示画面7a上を見ていない状態となるとの条件とすることが考えられる。
 ステップS213で抽出表示条件が成立したと判定した場合、演算部5はステップS202に戻る。
 また、演算部5は、ステップS205で注視点切替と判定した場合は、ステップS214に処理を進めて、抽出表示を解除する。これにより、先の図10Aから図10Bへの遷移として例示したように、別物体の注視領域Aaへの切り替えを行うべき状態となった場合に対応して、表示画面7aの表示を、注視領域Aaの抽出表示状態から撮像画像全体の表示へと切り替えることができる。
 ステップS214に続くステップS215で演算部5は、切替表示処理を実行する。すなわち、先の図10で例示したように、領域枠Waの位置を段階的に変化させる処理である。具体的に演算部5は、領域枠Waの位置を、前述した第一条件(図12のステップS153の条件)の成立直前に設定されていた注視点に対応する位置から、第一及び第二条件の双方の成立タイミング(図12のステップS158の条件成立タイミング)における検出注視点に対応する位置まで段階的に変化させる処理を行う。なお、領域枠Waのサイズを段階的に変化させる場合は、図9と同様の手法で、領域枠Waのサイズを段階的に変化させる。
 ステップS215の切替表示処理を実行したことに応じ、演算部5はステップS202に戻る。これによりステップS215の切替表示処理が完了した場合、すなわち領域枠Waを最終段階の状態に変化させたことに応じては、先の図10Eで例示したように、注視領域Aaの抽出画像が表示画面7aに表示される。
 演算部5は、ステップS206でアプリ終了と判定したことに応じて、図13に示す一連の処理を終える。
 ここで、上記により説明した処理によれば、注視点はフレームごとに検出されるものとなるので、手ぶれ等で撮像範囲が変化しても、注視領域Aaはぶれないようにすることができる。
 また、本実施形態では、注視点を基準として注視領域Aaを設定するので、注視物体の移動に対して注視領域Aaを追従させることができ、またその際に、構図としてはユーザが選択した構図で維持されるようにすることができる。
 なお、上記では、注視点が設定されたことに応じて、注視領域Aaの抽出画像を表示する例を挙げたが、抽出画像を表示することは必須ではない。
 例えば、注視点が設定された場合は、撮像画像全体を表示画面7aに表示させつつ、該撮像画像に重畳して、領域枠Waを表示させることが考えられる。
 また、このように注視点が設定されも撮像画像全体を表示する場合には、別物体の注視領域Aaへの切り替えを行う際、切り替え後の注視領域Aaを示す領域枠Waを表示画面7a上に表示させることが考えられる。このとき、切り替え後の注視領域Aaを示す領域枠Waは、例えば点滅させる等して目立たせることが考えられる。
 また、上記では、注視領域Aaは、単一の注視点を基準として設定する例を挙げたが、注視領域Aaは、過去の注視点の検出結果を用いて、注視点の検出頻度が高い領域を含む領域として設定すること等も考えられる。
 また、第一実施形態では、物体検出処理を実行しないため、ユーザの注視する物体の範囲(大きさ)を特定することができない。従って、第一実施形態において、カメラ部4がズーム機能を備える場合には、ズーム操作に連動して注視領域Aaのサイズを変化させることが考えられる。
 また、上記では、注視点が別物体上に移動したと推定された場合に、前述した第一及び第二条件の成立に応じて自動的に注視領域Aaの切り替えを行う例としたが、例えば、第一及び第二条件の成立に応じて別物体の注視領域Aaへの切り替えを行うか否かをユーザに問うメッセージ情報を例えば画像表示等により通知し、該通知に対するユーザ操作に応じて、別物体の注視領域Aaへの切り替えを行うようにすることもできる。この場合のユーザ操作としては、例えば表示画面7aへのタッチ操作、音声入力操作等とすることが考えられる。
 このとき、上記の通知に対し、一定時間以上経過してもユーザ操作が行われない場合には、自動的に切り替えを行うことが考えられる。或いは、切替元と切替先の双方の物体が収まる注視領域Aaを設定することも考えられる。或いは、切り替えを行わないということも考えられる。
 また、上記では、動画記録の場合に対応した処理を説明したが、静止画記録の場合には、例えば、レリーズ操作(例えば、シャッタボタンの操作)が行われたことに応じて、該レリーズ操作のタイミングで検出された注視点から注視領域Aaを設定し、設定した注視領域Aaの情報を、レリーズ操作が行われたタイミングで取得された静止画としての撮像画像と共にメモリ部8に記録させればよい。
 また、上記では、撮像画像と共に注視領域Aaの情報を記録する場合を例示したが、注視領域Aaを抽出した画像を記録することもできる。
 例えば、撮像画像から注視領域Aaをトリミングした画像を抽出画像として記録することが考えられる。
 或いは、ズームレンズによる光学的なズーミングが可能とされ、且つパン・チルトの調整が可能とされたいわゆるPTZカメラとしてのカメラ部4が用いられる場合には、光学的ズーミング、パン、チルトにより注視領域Aaを抽出した抽出画像を得、該抽出画像が記録されるようにすることも考えられる。
<2.第二実施形態>
 続いて、第二実施形態について説明する。第二実施形態は、物体検出処理を行うことで、注視物体の範囲を特定可能とするものである。
 図14は、第二実施形態としての情報処理装置1Aの構成例を示したブロック図である。
 なお、以下の説明において、既に説明済みとなった部分と同様となる部分については同一符号、同一ステップ番号を付して説明を省略する。
 情報処理装置1Aにおいて、第一実施形態の情報処理装置1との相違点は、演算部5に代えて演算部5Aが設けられた点である。演算部5Aは、演算部5と比較して、物体検出部55が追加された点と、注視領域設定部54に代えて注視領域設定部54Aが設けられた点が異なる。
 物体検出部55は、カメラ部4による撮像画像に基づき、物体検出処理を行う。この物体検出処理としては、物体の有無、及び物体の範囲の特定をそれぞれ行う。例えば、物体検出部55としては、機械学習された人工知能モデルを用いることが考えられる。この人工知能モデルとしては、例えば深層学習によりターゲットとしての物体の有無及びその範囲を特定することができるように学習された学習モデルを用いる。
 なお、物体検出部55に人工知能モデルを用いることは必須ではなく、例えばテンプレートマッチング等のルールベースの処理で物体検出を行う構成を採ること等も考えられる。
 注視領域設定部54Aは、注視点検出部52が検出した注視点(三次元注視点Pr)と、物体検出部55が検出した物体の情報(検出された物体とその範囲を示す情報)とに基づき、注視点を含む物体を注視物体として特定し、注視物体を内包する領域を注視領域Aaとして設定する。
 この場合も注視領域Aaの設定は、ユーザ操作により選択された構図の情報に基づいて行う。例えば、注視物体の代表位置(例えば物体範囲の中心位置等)を基準として、先の図3で例示したものと同様の手法で、注視領域Aaを設定する。
 物体検出処理を行うことで、注視物体の範囲や中心位置を知ることができ、注視物体の一部がはみ出さないように注視領域Aaを設定することが可能となる
 ここで、注視物体の一部が撮像画像からはみ出している場合、注視領域設定部54Aは、はみ出ていない部分の全体が収まるように注視領域Aaを設定する。
 図15は、上記のような物体検出部55及び注視領域設定部54Aが設けられる場合に対応して演算部5が実行すべき、撮像画像の記録に係る処理の具体的な処理手順例を示したフローチャートである。
 この図15に示す処理は、先の図11に示した処理と比較して、ステップS114の注視領域の設定処理に代えて、ステップS301の物体検出処理、及びステップS302の注視領域の設定処理を行う点と、ステップS103の注視点検出・設定処理に代えて、ステップS103’の注視点検出・設定処理を行う点が異なる。
 ステップS301の物体検出処理は、上述した物体検出部55として説明した処理であり、重複説明は避ける。
 ステップS301に続くステップS302の注視領域の設定処理では、演算部5は、ステップS301の物体検出処理の結果に基づき、注視領域Aaの設定を行う。具体的には、ステップS103’の注視点検出・設定処理(詳細は後述する)で設定された三次元注視点Prを画像上注視点Piに変換すると共に、ステップS301の物体検出処理で検出された物体のうち、この画像上注視点Piを含む物体を注視物体として特定する。そして、注視物体の中心位置等の代表位置を基準として、ユーザが選択した構図に従った注視領域Aaを設定する。
 演算部5は、ステップS302で注視領域Aaを設定したことに応じて、ステップS115に処理を進める。
 図16は、ステップS103’の注視点検出・設定処理を示したフローチャートである。
 図12に示したステップS103の注視点検出・設定処理との相違点は、ステップS153の処理に代えてステップS401の処理を行う点である。
 ステップS401で演算部5は、検出された注視点は注視物体とは別物体上か否かを判定する。すなわち、注視点ベースではなく物体範囲ベースで切替処理の実行条件判定を行うものである。
 これにより、ユーザの注視点が別物体上に移動したか否かを適切に判定することができる。
 なお、表示制御に係る処理については、この場合も図13に示したものと同様となるため、重複説明は避ける。
 ここで、第二実施形態においても、注視物体が撮像画像からフレームアウトしそうになった場合に通知を行うことになるが、第二実施形態においては、注視物体のみでなく、他の物体も検出することができるため、その特徴を活かしたユーザに対する通知を行うことも考えられる。
 例えば、検出された物体ごとに注視された回数を示す注視履歴情報を生成するようにしておき、該注視履歴情報に基づき、以前に注視していた物体や、再度注視する可能性のある物体が撮像画像からフレームアウトしそうになった場合に、ユーザに通知を行うことが考えられる。
<3.変形例>
 以上、本技術に係る実施形態について説明したが、本技術は、上記した具体例に限定されるものでなく、多様な変形例としての構成を採り得る。
 例えば、変形例として、カメラ部4としてのメインカメラ以外に、より広角のセカンダリカメラがある構成を考える。
 この場合、メインカメラの撮像範囲から注視物体がフレームアウトした場合、セカンダリカメラを利用することが考えられる。具体的には、セカンダリカメラに注視物体が捉えられている場合には、セカンダリカメラの撮像画像と共に注視領域Aaの情報を記録させる等である。
 また、セカンダリカメラを用いる場合の画面表示としては、メインカメラの画像を画面中央に、その外側にセカンダリカメラの画像を表示する等が考えられる。このとき、メインカメラの撮像範囲を示す画枠情報を表示してもよい。
 また、メインカメラ、セカンダリカメラ共に、露出は注視物体に合わせるようにすることが考えられる。
 また、上記では、光学的なズーミングが可能とされる場合には該ズーミングにより抽出画像を生成してもよいことに言及したが、内視鏡カメラ等のようにカメラ自体が移動できる場合は、カメラの移動により抽出画像を生成することも考えられる。
 また、上記では特に触れなかったが、注視物体を対象として、フォーカシングや露出調整、顔検出を行うことが考えられる。これらは、動画の録画中は常時行うことが考えられる。また、静止画の記録モード時や動画モード中における非録画中の状態では、ユーザが画面を注視し且つ情報処理装置1(1A)を持ち上げる等したことに応じて、上記のような注視物体を対象としたフォーカシングや露出調整、顔検出等を開始することが考えられる。
 また、ユーザの視線をロストした場合の対処として、以下が考えられる。
 例えば、視線は推定不能であっても、ユーザの頭部の向きが推定できる場合は、該頭部の向きから視線を推定し、推定した視線と交差する物体を注視物体として検出することが考えられる。
 或いは、視線をロストした場合は、過去に注視点が高頻度で検出されていた領域を注視領域Aaに定めることが考えられる。
 また、視線をロストした場合、顔登録されている物体(顔登録物体が複数ある場合はそれらから選択した物体)を、注視物体として定めることも考えられる。
 また、静止画を記録する場合のユーザインタフェースについて、静止画の記録モード時に、対象の物体を見つめながら「シャッタ」の発音や、ボタン操作に応じて静止画の記録を行うことが考えられる。
 また、動画を記録する場合のユーザインタフェースについて、動画の記録モード時に、対象の物体を見つめながら「シャッタ」の発音や、ボタン操作に応じて録画を開始することが考えられる。
 また、これまでの説明では、注視点は一つのみ検出する例としたが、注視点を複数検出することも考えられる。例えば、二点間で視線が行ったり来たりしているとき等を想定したものである。
 注視点が複数検出される場合、注視領域Aaとしては、それら複数の注視点が収まる範囲に設定(物体検出を行う場合は、複数の注視物体が入る範囲に設定)することが考えられる。
 また、複数のユーザについて、ユーザごとの視線を検出できるようにすることも考えられる。このようにユーザごとに注視点を検出する場合、ユーザごとに注視領域Aaを別々に記録することが考えられる。
 或いは、各ユーザの注視点(又は注視物体)が収まる注視領域Aaを設定することもできる。
 また、撮像画像と注視領域Aaを示す情報とを記録する場合、撮像後に編集画面において注視領域Aaを編集できるようにすることも考えられる。
 また、これまでの説明では、情報処理装置の装置形態としてスマートフォンとしての装置形態を例示したが、本技術に係る情報処理装置としては、例えばカメラやHMD(Head Mount Display)等、スマートフォン以外の装置形態を採り得るものである。
 また、上記では、測距部3についてToF方式による測距を行う場合を例示したが、本技術において、測距情報を得るための方式についてはToF方式に限定されない。例えば、ToF方式以外のLiDAR方式や、ステレオカメラ、単眼SLAM(Simultaneous Localization and Mapping)、複眼SLAM等で測距を行うことも考えられる。
 或いは、測距としては、像面位相差法に基づく測距や、超音波測距、電磁波レーダーを用いた測距等とすることも考えられる。
 また、上記では、測距情報を得るにあたり、カメラ部4が有するイメージセンサとは別途の測距用センサを設ける前提としたが、本技術において、測距情報は、このような別途の測距用センサを用いて取得することに限らない。
 例えば、RGB画像に基づき、SfM(Structure from Motion)の手法を用いて実空間の三次元点群の生成を行って、測距情報を得ることが考えられる。或いは、RGB画像から距離画像を推論するように機械学習された人工知能モデルを用いて測距情報を得るという構成も考えられるものである。
<4.実施形態のまとめ>
 以上で説明したように実施形態としての情報処理装置(同1,1A)は、実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて実空間上におけるユーザの注視点を検出する検出部(三次元マップ生成部51及び注視点検出部52)と、注視点に基づき設定された注視領域の情報を用いて、撮像に係る制御を行う制御部(同50)と、を備えるものである。
上記構成によれば、ユーザが撮像装置を対象とする物体側に向けるように保持した状態で、撮像装置の画面越しではなく対象とする物体を直接見ながら撮像を行う、いわゆる「ながら撮像」を行っても、上記の制御部によってユーザの注視領域の情報を用いた撮像に係る制御が行われることで、注視物体を適切に捉えた撮像画像がユーザに提供されるように図ることが可能となる。
 従って、「ながら撮像」を行う場合に好適な撮像制御技術を実現することができる。
 また、実施形態としての情報処理装置においては、検出部は、測距情報に基づき所定範囲についての三次元マップを生成し、三次元マップ上におけるユーザの視線との交点を注視点として検出している。
 これにより、ユーザの注視点を適切に検出することができる。
 さらに、実施形態としての情報処理装置においては、注視点を内包する領域を注視領域として設定する注視領域設定部(同54,54A)を備えている。
 これにより、注視点を内包する領域として設定された注視領域の情報に基づき、撮像に係る制御が行われる。
 従って、注視物体を適切に捉えた撮像画像がユーザに提供されるように図ることが可能となり、「ながら撮像」を行う場合に好適な撮像制御技術を実現することができる。
 さらにまた、実施形態としての情報処理装置(同1)においては、注視領域設定部(同54)は、左右上下の各領域端部の位置を注視点からそれぞれ所定距離となる位置とした領域を注視領域として設定している。
 これにより、注視点が例えば領域内の中心位置等の所定位置に配置された注視領域を設定可能となる。
 従って、撮像画像における注視領域を抽出して得られる抽出画像をユーザに提供する場合において、該抽出画像の構図を任意の構図に設定することができる。
 また、実施形態としての情報処理装置(同1A)においては、注視領域設定部(同54A)は、実空間を対象とした物体検出処理で検出された物体のうち、注視点を含む物体を注視物体として特定し、注視物体を内包する領域を注視領域として設定している。
 これにより、注視領域には、注視点を含む注視物体全体が内包される。
 従って、撮像画像における注視領域を抽出して得られる抽出画像をユーザに提供する場合において、該抽出画像として、注視物体全体が収まっている適切な画像を得ることができる。
 さらに、実施形態としての情報処理装置においては、注視領域設定部は、注視物体が予め操作により指定された領域内位置に位置するように注視領域を設定している(図3等参照)。
 これにより、注視物体を注視領域内の何れの位置に位置させるかをユーザに予め設定させることが可能となる。
 従って、撮像画像における注視領域を抽出して得られる抽出画像をユーザに提供する場合において、該抽出画像の構図をユーザの意図に沿った適切な構図とすることができる。
 さらにまた、実施形態としての情報処理装置(同1,1A)においては、制御部は、検出部による複数回の注視点検出結果に基づき、注視点が別物体に移動したか否かの推定を行い、注視点が別物体に移動したと推定した場合に、検出部が新たに検出した注視点に基づく注視領域を撮像に係る制御に用いる注視領域として適用する切替処理を行っている(図12,図16参照)。
 これにより、ユーザの注視点が別物体上に切り替わった場合に対応して、撮像に係る制御を、切替後の注視点の情報に基づいて適切に行うことができる。
 また、実施形態としての情報処理装置(同1A)においては、制御部は、実空間を対象とした物体検出処理で検出された物体の範囲情報に基づき、注視点が別物体に移動したか否かを推定している。
 上記のように物体検出処理で検出された物体の範囲情報を用いることで、注視点の物体間の移動を適切に推定することができる。
 さらに、実施形態としての情報処理装置(同1,1A)においては、制御部は、注視点が別物体に移動したと推定したことを第一条件としたとき、第一条件と、第一条件とは異なる第二条件とが満たされた場合に切替処理を行っている(図12,図16参照)。
 これにより、ユーザが別物体を一時的に目視したのみでは、注視領域の切替処理は行われない。
 従って、ユーザが例えば大きな物音がした方向を一時的に目視する等、注視領域の切替意図がなく別物体を目視してしまった場合に、ユーザの意図に反して注視領域の切替処理が行われてしまうことの防止を図ることができる。
 さらにまた、実施形態としての情報処理装置においては、第二条件は、注視点が別物体にあると推定される状態が一定時間以上経過したとの条件である。
 ユーザが別物体を一定時間以上目視した場合、ユーザの興味が元物体から別物体に移ったと推定される。
 従って、上記構成によれば、ユーザの意図に沿って注視領域の切替処理を適切に行うことができる。
 また、実施形態としての情報処理装置においては、第二条件は、撮像方向が別物体の存在する方向に向けられたとの条件である。
 撮像方向が別物体の存在する方向に向けられた場合、ユーザの興味が元物体から別物体に移ったと推定される。
 従って、上記構成によれば、ユーザの意図に沿って注視領域の切替処理を適切に行うことができる。
 さらに、実施形態としての情報処理装置においては、制御部は、別物体の注視領域に切り替えを行う際、注視領域の位置、サイズの少なくとも一方を段階的に変化させている(図8、図9参照)。
 これにより、注視領域が急激に変化してしまうことの防止を図ることが可能となる。
 従って、撮像画像における注視領域を抽出して得られる抽出画像をユーザに提供する場合において、該抽出画像の画像内容が急激に変化してしまうことの防止を図ることができ、該注視画像を表示した場合の違和感の緩和を図ることができる。
 さらにまた、実施形態としての情報処理装置においては、制御部は、撮像に係る制御として、撮像により得られる撮像画像の記録に係る制御を行っている。
 例えば、撮像画像と共に注視領域を示す情報を記録させたり、撮像画像から注視領域を抽出した抽出画像を記録させたりすることが可能である。或いは、撮像画像と抽出画像の双方を記録させる等といったことも考えられる。
 従って、ユーザが「ながら撮像」を行った場合であっても、注視物体が適切にフレーミングされた撮像画像がユーザに提供されるように図ることができる。
 また、実施形態としての情報処理装置においては、制御部は、撮像に係る制御として、撮像により得られる撮像画像と、注視領域を示す情報とを記録させる制御を行っている。
 これにより、撮像終了後において、記録された注視領域の情報に基づいて、撮像画像から注視領域を抽出した画像を編集等により容易に作成することが可能となる。また、撮像画像そのものが記録されるため、撮像画像から注視領域を抽出した抽出画像を記録する場合と比較して、撮像時に注視点の検出が失敗した際のリスク低減にもなる。
 さらに、実施形態としての情報処理装置においては、制御部は、撮像に係る制御として、撮像により得られる撮像画像のスルー画に係る表示制御を行っている。
 例えば、撮像画像内のどの領域が注視領域であるかを示す情報をスルー画に重畳したり、注視領域を拡大したスルー画を表示させたりする等、注視領域を反映させた表示制御を行うことが可能である。
 従って、情報処理装置において注視領域が正しく認識されているかをユーザに確認させることができる。
 さらにまた、実施形態としての情報処理装置においては、制御部は、撮像画像内に注視領域が存在する場合に、撮像画像から注視領域を抽出した抽出画像がスルー画として表示されるように制御している。
 これにより、撮像画像における注視領域を抽出して得られる抽出画像をユーザに提供する場合において、該抽出画像のイメージをユーザに確認させることができる。
 また、実施形態としての情報処理装置においては、制御部は、注視領域が撮像画像の端部に対して所定距離以内に近づいた場合に、ユーザに対して通知情報が表示されるように制御している。
 これにより、「ながら撮像」中において、注視物体が撮像画像からフレームアウトしそうになった場合には、その旨をユーザに通知することができる。
 さらに、実施形態としての情報処理装置においては、制御部は、注視点が撮像画像内に存在しない場合は、特定画像が表示されるように制御している。
 例えば、注視物体がフレームアウトした旨を示すメッセージを含む画像や、注視物体のフレームアウト方向を示す矢印等の情報を含む画像等、注視物体がフレームアウトした場合にユーザに通知すべき情報を示す特定の画像が表示されるように制御することが可能となる。
 従って、「ながら撮像」中において、注視物体が撮像画像内に捉えられていない不適切なフレーミング状態である旨を画像表示によりユーザに直感的に理解させることができる。また、注視物体が撮像画像内に捉えられる適切なフレーミング状態に復帰させるためのユーザ補助を実現することができる。
 実施形態の情報処理方法は、情報処理装置が、実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて実空間上におけるユーザの注視点を検出し、注視点に基づき設定された注視領域の情報を用いて、撮像に係る制御を行う情報処理方法である。
 このような情報処理方法によっても、上記した実施形態としての情報処理装置と同様の作用及び効果を得ることができる。
 ここで、実施形態としては、図11から図13や図15、図16等で説明した処理を、例えばCPU、DSP(Digital Signal Processor)等、或いはこれらを含むデバイスに実行させるプログラムや、該プログラムが記録された記録媒体を考えることができる。
 すなわち、実施形態の記録媒体は、コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて実空間上におけるユーザの注視点を検出し、注視点に基づき設定された注視領域の情報を用いて、撮像に係る制御を行う処理を、コンピュータ装置に実行させるプログラムが記録された記録媒体である。
 このような記録媒体により、上述した実施形態としての撮像制御機能をコンピュータ装置としての機器においてソフトウェア処理により実現できる。
 上記のような記録媒体は、コンピュータ装置等の機器に内蔵されているHDDや、CPUを有するマイクロコンピュータ内のROM等として実現することができる。
 或いはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体としての形態も考えられる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<5.本技術>
 本技術は以下のような構成を採ることもできる。
(1)
 実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて前記実空間上における前記ユーザの注視点を検出する検出部と、
 前記注視点に基づき設定された注視領域の情報を用いて、前記撮像に係る制御を行う制御部と、を備える
 情報処理装置。
(2)
 前記検出部は、前記測距情報に基づき前記所定範囲についての三次元マップを生成し、前記三次元マップ上における前記ユーザの視線との交点を前記注視点として検出する
 前記(1)に記載の情報処理装置。
(3)
 前記注視点を内包する領域を前記注視領域として設定する注視領域設定部を備えた
 前記(1)又は(2)に記載の情報処理装置。
(4)
 前記注視領域設定部は、左右上下の各領域端部の位置を前記注視点からそれぞれ所定距離となる位置とした領域を前記注視領域として設定する
 前記(3)に記載の情報処理装置。
(5)
 前記注視領域設定部は、前記実空間を対象とした物体検出処理で検出された物体のうち、前記注視点を含む物体を注視物体として特定し、前記注視物体を内包する領域を前記注視領域として設定する
 前記(3)に記載の情報処理装置。
(6)
 前記注視領域設定部は、前記注視物体が予め操作により指定された領域内位置に位置するように前記注視領域を設定する
 前記(5)に記載の情報処理装置。
(7)
 前記制御部は、前記検出部による複数回の注視点検出結果に基づき、前記注視点が別物体に移動したか否かの推定を行い、前記注視点が別物体に移動したと推定した場合に、前記検出部が新たに検出した前記注視点に基づく前記注視領域を前記撮像に係る制御に用いる前記注視領域として適用する切替処理を行う
 前記(1)から(6)の何れかに記載の情報処理装置。
(8)
 前記制御部は、前記実空間を対象とした物体検出処理で検出された物体の範囲情報に基づき、前記注視点が別物体に移動したか否かを推定する
 前記(7)に記載の情報処理装置。
(9)
 前記制御部は、前記注視点が別物体に移動したと推定したことを第一条件としたとき、前記第一条件と、前記第一条件とは異なる第二条件とが満たされた場合に前記切替処理を行う
 前記(7)又は(8)に記載の情報処理装置。
(10)
 前記第二条件は、前記注視点が別物体にあると推定される状態が一定時間以上経過したとの条件である
 前記(9)に記載の情報処理装置。
(11)
 前記第二条件は、撮像方向が前記別物体の存在する方向に向けられたとの条件である
 前記(9)に記載の情報処理装置。
(12)
 前記制御部は、前記別物体の前記注視領域に切り替えを行う際、前記注視領域の位置、サイズの少なくとも一方を段階的に変化させる
 前記(7)から(11)の何れかに記載の情報処理装置。
(13)
 前記制御部は、前記撮像に係る制御として、前記撮像により得られる撮像画像の記録に係る制御を行う
 前記(1)から(12)の何れかに係る情報処理装置。
(14)
 前記制御部は、前記撮像に係る制御として、前記撮像により得られる撮像画像と、前記注視領域を示す情報とを記録させる制御を行う
 前記(13)に記載の情報処理装置。
(15)
 前記制御部は、前記撮像に係る制御として、前記撮像により得られる撮像画像のスルー画に係る表示制御を行う
 前記(1)から(14)の何れかに記載の情報処理装置。
(16)
 前記制御部は、前記撮像画像内に前記注視領域が存在する場合に、前記撮像画像から前記注視領域を抽出した抽出画像がスルー画として表示されるように制御する
 前記(15)に記載の情報処理装置。
(17)
 前記制御部は、前記注視領域が前記撮像画像の端部に対して所定距離以内に近づいた場合に、ユーザに対して通知情報が表示されるように制御する
 前記(15)又は(16)に記載の情報処理装置。
(18)
 前記制御部は、前記注視点が前記撮像画像内に存在しない場合は、特定画像が表示されるように制御する
 前記(15)から(17)の何れかに記載の情報処理装置。
(19)
 情報処理装置が、
 実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて前記実空間上における前記ユーザの注視点を検出し、前記注視点に基づき設定された注視領域の情報を用いて、前記撮像に係る制御を行う
 情報処理方法。
(20)
 コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、
 実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて前記実空間上における前記ユーザの注視点を検出し、前記注視点に基づき設定された注視領域の情報を用いて、前記撮像に係る制御を行う処理を、前記コンピュータ装置に実行させるプログラムが記録された
 記録媒体。
1,1A 情報処理装置
2 自己位置・姿勢推定部
3 測距部
4 カメラ部
5,5A 演算部
50 制御部
51 三次元マップ生成部
52 注視点検出部
53 視線ベクトル計算部
54,54A 注視領域設定部
55 物体検出部
6 視線・目位置推定部
7 表示部
7a 表示画面
8 メモリ部
9 操作部
Ob,Ob1,Ob2 物体
P1,P2 点
Pr 三次元注視点
Pi 画像上注視点
Aa 注視領域
Wa 領域枠
M1,M2 メッセージ画像
I1 方向通知画像

Claims (20)

  1.  実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて前記実空間上における前記ユーザの注視点を検出する検出部と、
     前記注視点に基づき設定された注視領域の情報を用いて、前記撮像に係る制御を行う制御部と、を備える
     情報処理装置。
  2.  前記検出部は、前記測距情報に基づき前記所定範囲についての三次元マップを生成し、前記三次元マップ上における前記ユーザの視線との交点を前記注視点として検出する
     請求項1に記載の情報処理装置。
  3.  前記注視点を内包する領域を前記注視領域として設定する注視領域設定部を備えた
     請求項1に記載の情報処理装置。
  4.  前記注視領域設定部は、左右上下の各領域端部の位置を前記注視点からそれぞれ所定距離となる位置とした領域を前記注視領域として設定する
     請求項3に記載の情報処理装置。
  5.  前記注視領域設定部は、前記実空間を対象とした物体検出処理で検出された物体のうち、前記注視点を含む物体を注視物体として特定し、前記注視物体を内包する領域を前記注視領域として設定する
     請求項3に記載の情報処理装置。
  6.  前記注視領域設定部は、前記注視物体が予め操作により指定された領域内位置に位置するように前記注視領域を設定する
     請求項5に記載の情報処理装置。
  7.  前記制御部は、前記検出部による複数回の注視点検出結果に基づき、前記注視点が別物体に移動したか否かの推定を行い、前記注視点が別物体に移動したと推定した場合に、前記検出部が新たに検出した前記注視点に基づく前記注視領域を前記撮像に係る制御に用いる前記注視領域として適用する切替処理を行う
     請求項1に記載の情報処理装置。
  8.  前記制御部は、前記実空間を対象とした物体検出処理で検出された物体の範囲情報に基づき、前記注視点が別物体に移動したか否かを推定する
     請求項7に記載の情報処理装置。
  9.  前記制御部は、前記注視点が別物体に移動したと推定したことを第一条件としたとき、前記第一条件と、前記第一条件とは異なる第二条件とが満たされた場合に前記切替処理を行う
     請求項7に記載の情報処理装置。
  10.  前記第二条件は、前記注視点が別物体にあると推定される状態が一定時間以上経過したとの条件である
     請求項9に記載の情報処理装置。
  11.  前記第二条件は、撮像方向が前記別物体の存在する方向に向けられたとの条件である
     請求項9に記載の情報処理装置。
  12.  前記制御部は、前記別物体の前記注視領域に切り替えを行う際、前記注視領域の位置、サイズの少なくとも一方を段階的に変化させる
     請求項7に記載の情報処理装置。
  13.  前記制御部は、前記撮像に係る制御として、前記撮像により得られる撮像画像の記録に係る制御を行う
     請求項1に記載の情報処理装置。
  14.  前記制御部は、前記撮像に係る制御として、前記撮像により得られる撮像画像と、前記注視領域を示す情報とを記録させる制御を行う
     請求項13に記載の情報処理装置。
  15.  前記制御部は、前記撮像に係る制御として、前記撮像により得られる撮像画像のスルー画に係る表示制御を行う
     請求項1に記載の情報処理装置。
  16.  前記制御部は、前記撮像画像内に前記注視領域が存在する場合に、前記撮像画像から前記注視領域を抽出した抽出画像がスルー画として表示されるように制御する
     請求項15に記載の情報処理装置。
  17.  前記制御部は、前記注視領域が前記撮像画像の端部に対して所定距離以内に近づいた場合に、ユーザに対して通知情報が表示されるように制御する
     請求項15に記載の情報処理装置。
  18.  前記制御部は、前記注視点が前記撮像画像内に存在しない場合は、特定画像が表示されるように制御する
     請求項15に記載の情報処理装置。
  19.  情報処理装置が、
     実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて前記実空間上における前記ユーザの注視点を検出し、前記注視点に基づき設定された注視領域の情報を用いて、前記撮像に係る制御を行う
     情報処理方法。
  20.  コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、
     実空間上における撮像の対象範囲である撮像範囲を含む所定範囲を対象とした測距結果を示す測距情報と、ユーザの視線及び目位置の推定情報とに基づいて前記実空間上における前記ユーザの注視点を検出し、前記注視点に基づき設定された注視領域の情報を用いて、前記撮像に係る制御を行う処理を、前記コンピュータ装置に実行させるプログラムが記録された
     記録媒体。
PCT/JP2023/008151 2022-04-01 2023-03-03 情報処理装置、情報処理方法、記録媒体 WO2023189218A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022061930 2022-04-01
JP2022-061930 2022-04-01

Publications (1)

Publication Number Publication Date
WO2023189218A1 true WO2023189218A1 (ja) 2023-10-05

Family

ID=88201318

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/008151 WO2023189218A1 (ja) 2022-04-01 2023-03-03 情報処理装置、情報処理方法、記録媒体

Country Status (1)

Country Link
WO (1) WO2023189218A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019141620A (ja) * 2012-09-17 2019-08-29 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH 三次元物体上の注視点決定方法及び装置
WO2019171522A1 (ja) * 2018-03-08 2019-09-12 株式会社ソニー・インタラクティブエンタテインメント 電子機器、ヘッドマウントディスプレイ、注視点検出器、および画素データ読み出し方法
JP2021125867A (ja) * 2020-02-05 2021-08-30 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019141620A (ja) * 2012-09-17 2019-08-29 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH 三次元物体上の注視点決定方法及び装置
WO2019171522A1 (ja) * 2018-03-08 2019-09-12 株式会社ソニー・インタラクティブエンタテインメント 電子機器、ヘッドマウントディスプレイ、注視点検出器、および画素データ読み出し方法
JP2021125867A (ja) * 2020-02-05 2021-08-30 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP5361528B2 (ja) 撮像装置およびプログラム
US8780200B2 (en) Imaging apparatus and image capturing method which combine a first image with a second image having a wider view
JP5373229B1 (ja) 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体
JP6366395B2 (ja) ズーム制御装置、撮像装置、ズーム制御装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
JP6370140B2 (ja) ズーム制御装置、撮像装置、ズーム制御装置の制御方法、ズーム制御装置の制御プログラムおよび記憶媒体
KR20190013759A (ko) 연산 처리 장치 및 연산 처리 방법
JP2007329784A (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
US10061983B2 (en) Tracking apparatus, tracking method, and non-transitory storage medium storing tracking program
JP5210843B2 (ja) 撮像装置
US20150070526A1 (en) Display control device, display control method, and program
JP5885395B2 (ja) 撮影機器及び画像データの記録方法
US20210203856A1 (en) Image capturing apparatus and control method thereof
WO2019104569A1 (zh) 一种对焦方法、设备及可读存储介质
JP2011166641A (ja) 撮像装置
JP2021124669A (ja) 電子機器
JP7418104B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP2024036387A (ja) 電子機器およびその制御方法
JP5783696B2 (ja) 撮像装置、オートズーム方法、及び、プログラム
JP2009288945A (ja) 画像表示装置及び画像表示方法
JP2008288797A (ja) 撮像装置
WO2020170604A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2023189218A1 (ja) 情報処理装置、情報処理方法、記録媒体
US9264603B2 (en) Imaging apparatus and imaging method
JP2013255226A (ja) 画像取込装置の改良された制御
JP6289207B2 (ja) 撮像装置、撮像装置の制御方法、撮像装置の制御プログラムおよび記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23779247

Country of ref document: EP

Kind code of ref document: A1