WO2022038991A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2022038991A1
WO2022038991A1 PCT/JP2021/028212 JP2021028212W WO2022038991A1 WO 2022038991 A1 WO2022038991 A1 WO 2022038991A1 JP 2021028212 W JP2021028212 W JP 2021028212W WO 2022038991 A1 WO2022038991 A1 WO 2022038991A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
information processing
subject
acquired
Prior art date
Application number
PCT/JP2021/028212
Other languages
English (en)
French (fr)
Inventor
武史 大橋
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US18/006,925 priority Critical patent/US20230290113A1/en
Priority to EP21858139.5A priority patent/EP4198570A4/en
Publication of WO2022038991A1 publication Critical patent/WO2022038991A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform

Definitions

  • This disclosure relates to an information processing device, an information processing method, and an information processing program.
  • a TOF (Time of Flight) type camera distance image sensor
  • the TOF type camera pulse-modulates invisible light such as infrared rays and irradiates the angle of view, and measures the phase delay of the reflected light reflected from the subject to determine the distance to the subject. Due to its convenience, TOF cameras are used for three-dimensional image recognition processing in smartphones, wearable devices, and the like.
  • the information processing apparatus of one form according to the present disclosure includes an image acquisition unit, a measurement unit, and a recognition processing unit.
  • the image acquisition unit acquires an image by receiving external light at the light receiving unit.
  • the measuring unit measures the distance to the subject by using the first image based on the image acquired by the image acquisition unit in response to the irradiation of infrared rays from the light emitting unit.
  • the recognition processing unit performs subject recognition processing using a second image based on an image acquired by the image acquisition unit that receives external light without irradiating infrared rays from the light emitting unit.
  • FIG. 1 is a schematic diagram showing an outline of information processing according to the embodiment of the present disclosure.
  • the information processing apparatus 100 is an apparatus that acquires an image and performs processing based on the recognition result of the acquired image.
  • the information processing device 100 is typically an electronic device such as a smartphone.
  • the information processing device 100 may be a mobile phone, a tablet, a wearable terminal, a PDA (Personal Digital Assistant), a personal computer, or the like.
  • the information processing apparatus 100 includes an image acquisition unit 110, an image processing unit 172, and a recognition processing unit 173.
  • the image acquisition unit 110 acquires an image by receiving external light at the light receiving unit.
  • the outside light includes not only sunlight outdoors but also illumination light whose intensity exceeds a certain threshold even indoors.
  • the image acquisition unit 110 is mounted by a TOF type camera including a light emitting unit having a laser such as an LED and a light receiving unit having a CCD (Charge Coupled Device) image sensor or the like.
  • CCD Charge Coupled Device
  • the image acquisition unit 110 acquires an image matched to the sensor mode according to which sensor mode of the first sensor mode and the second sensor mode the information processing apparatus 100 operates.
  • the first sensor mode is a sensor mode conventionally provided in a TOF type camera that functions as an image acquisition unit 110, and is a sensor mode that irradiates light (infrared rays) from a light emitting unit to acquire an image.
  • the second sensor mode is a sensor mode newly introduced into a TOF type camera that functions as an image acquisition unit 110, and is a sensor mode that acquires an image without irradiating light (infrared rays) from the light emitting unit.
  • the image acquisition unit 110 irradiates light (infrared rays) from the light emitting unit in different phases, and receives (detects) the light received by the light receiving unit (infrared light) in pixels. Acquire a plurality of phase images recorded for each. Further, in the second operation mode, the image acquisition unit 110 acquires a RAW image in which the light receiving signal of the light received by the light receiving unit is recorded for each pixel without emitting light (infrared rays) from the light emitting unit. ..
  • the image processing unit 162 executes image processing of the image acquired by the image acquisition unit 110.
  • the image processing unit 162 is a distance image (of the first image) based on an image (phase image) acquired by the image acquisition unit 110 in response to irradiation of infrared rays from the light emitting unit. (Example) is used to measure the distance to the subject.
  • the image processing unit 162 is a luminance image (second) based on an image (RAW image) acquired by the image acquisition unit 110 that receives external light without being irradiated with infrared rays from the light emitting unit.
  • An example of the image of 2 is acquired.
  • FIG. 2 is a diagram showing an example of a distance image according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram showing an example of a distance image and a luminance image according to the embodiment of the present disclosure.
  • the left and right figures shown in FIG. 3 are images of the same subject (user's hand).
  • the infrared rays emitted from the light emitting unit are not obstructed by the external light. Therefore, the infrared rays emitted from the light emitting unit can be captured by the light receiving unit, and as shown in the left figure of FIG. 2, the image processing unit 172 captures the distance image G d1 from the phase image acquired by the image acquisition unit 110. Can be generated. Then, the image processing unit 172 can recognize the shape of the user's hand as the subject by using the distance image G d1 as shown in the right figure of FIG.
  • the information processing device 100 controls its own device so as to operate in the second sensor mode. That is, as shown in the right figure of FIG.
  • the image processing unit 172 is a luminance image G from an image (for example, a RAW image) acquired by the image acquisition unit 110 that receives external light without being irradiated with infrared rays from the light emitting unit. Generate b . Then, the image processing unit 172 can acquire the two-dimensional position information of the user's hand as the subject by using the luminance image Gb as shown in the right figure of FIG . In this way, in an environment where the influence of external light is large, it is not possible to acquire distance information (also referred to as "distance coordinates" or "depth”) to the subject, but at least 2 for the subject. Dimensional position information can be acquired.
  • distance information also referred to as "distance coordinates" or "depth
  • the recognition processing unit 173 executes the recognition processing based on the distance image G d acquired by the image processing unit 172. Further, in the case of the second sensor mode, the recognition processing unit 173 executes the recognition processing based on the luminance image Gb acquired by the image processing unit 172.
  • the information processing apparatus 100 introduces a second operation mode for acquiring an image without irradiating light (infrared rays) from the light emitting unit. Then, the information processing apparatus 100 executes the recognition process based on the luminance image acquired by the second operation mode. Therefore, the information processing apparatus 100 according to the embodiment can execute the recognition process using the luminance image in an environment where the influence of external light such as external light is large, and uses a TOF type distance image sensor. The image processing that was used can be improved.
  • FIG. 4 is a block diagram showing a configuration example of the information processing apparatus according to the embodiment of the present disclosure.
  • the information processing apparatus 100 includes an image acquisition unit 110, an input unit 120, an output unit 130, a communication unit 140, an illuminance acquisition unit 150, a storage unit 160, and a control unit 170. Have.
  • the image acquisition unit 110 has a light emitting unit 111 and a light receiving unit 112.
  • the image acquisition unit 110 acquires an image by receiving external light with the light receiving unit 112.
  • the image acquisition unit 110 can be realized by, for example, a TOF type camera.
  • the TOF type camera that functions as the image acquisition unit 110 has a built-in LED or the like that functions as the light emitting unit 111 and a CCD image sensor or the like that functions as the light receiving unit 112.
  • the image acquisition unit 110 irradiates light (infrared rays) from the light emitting unit and receives (detects) the light received by the light receiving unit (intensity and wavelength). Is acquired for each pixel. Further, when the information processing apparatus 100 operates in the second operation mode, the image acquisition unit 110 records the light receiving signal of the light received by the light receiving unit for each pixel without emitting light (infrared rays) from the light emitting unit. Acquire the RAW image.
  • the image acquisition unit 110 acquires a phase image when the sensor mode setting signal acquired from the determination unit 171 described later is a signal instructing operation in the first sensor mode. On the other hand, the image acquisition unit 110 acquires a RAW image when the sensor mode setting signal acquired from the determination unit 171 described later is a signal instructing the operation in the second sensor mode.
  • the input unit 120 receives an operation from the user of the information processing apparatus 100 as a user interface.
  • the input unit 120 can be realized by, for example, various buttons, a keyboard, a touch panel, a mouse, a switch, a microphone, and the like.
  • the output unit 130 outputs various information.
  • the output unit 130 can be realized by a display device such as a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or an OLED (Organic Light Emitting Diode) that displays various information, or an acoustic device such as a speaker that outputs voice or the like. ..
  • the communication unit 140 sends and receives various information.
  • the communication unit 140 can be realized by a NIC (Network Interface Card), various communication modems, or the like.
  • the illuminance acquisition unit 150 acquires the illuminance of external light.
  • the illuminance acquisition unit 150 can be realized by, for example, an illuminance sensor.
  • the storage unit 160 stores programs, data, and the like for realizing various processing functions executed by the control unit 170.
  • the storage unit 160 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk.
  • the program stored in the storage unit 160 includes an OS (Operating System) and an application program.
  • the storage unit 160 may function as an auxiliary storage device for the control unit 170. In this case, the storage unit 160 can temporarily store a phase image or RAW image acquired by the image acquisition unit 110, a distance image or a luminance image acquired by the image processing unit 172 described later.
  • the control unit 170 is, for example, a controller that controls various processes of the information processing apparatus 100.
  • a program stored inside the information processing apparatus 100 (for example, the information processing program according to the present disclosure) is executed by a processor or the like with the main storage apparatus or the like as a work area. It is realized by.
  • the processor can be realized by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a SoC (System-on-a-Chip), or the like.
  • various functions provided by the control unit 170 may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • control unit 170 includes a determination unit 171, an image processing unit 172, a recognition processing unit 173, and an application execution unit 174.
  • the determination unit 171 determines whether or not to perform measurement processing based on the distance image. For example, the information processing apparatus 100 is initially set to select the first sensor mode at startup. Then, after the information processing device 100 is activated, the determination unit 171 determines which sensor mode, the first sensor mode or the second sensor mode, is used to operate the information processing device 100.
  • FIG. 5 is a diagram showing an outline of the operation of the determination unit according to the embodiment of the present disclosure.
  • the determination unit 171 determines whether or not to perform the measurement process based on the illuminance acquired by the illuminance acquisition unit 150.
  • the illuminance acquired by the illuminance acquisition unit 150 corresponds to the illuminance of the external light received by the light receiving unit 112.
  • the determination unit 171 determines that the measurement process is performed when the illuminance acquired by the illuminance acquisition unit 150 is less than a predetermined threshold value. Then, the determination unit 171 sends a sensor mode setting signal indicating that it operates in the first sensor mode to the image acquisition unit 110, the image processing unit 172, and the recognition processing unit 173.
  • the determination unit 171 determines that the measurement process is not performed. Then, the determination unit 171 sends a sensor mode setting signal indicating that it operates in the second sensor mode to the image acquisition unit 110, the image processing unit 172, and the recognition processing unit 173.
  • the image processing unit 172 executes image processing of the image acquired by the image acquisition unit 110.
  • the image processing unit 172 is acquired by the image acquisition unit 110 in response to the irradiation of infrared rays from the light emitting unit 111. It functions as a measuring unit that acquires a distance image based on the image (phase image) and measures the distance to the subject.
  • FIG. 6 is an explanatory diagram for explaining an example of the distance measuring method according to the embodiment of the present disclosure.
  • the infrared emission intensity (IR emission intensity) of the light emitting unit 111 is adjusted with a sine waveform having an angular frequency ⁇ , and the infrared emission waveform and the light waveform reflected from the subject and returned are used.
  • a method of measuring the distance to the subject by the phase difference ⁇ of is shown.
  • the emission waveform of the light emitting unit 111 can be represented by the following equation (1).
  • the light receiving waveform of the light receiving unit 112 can be expressed by the following equation (2).
  • the reference numeral "A" indicates the amplitude
  • the reference numeral "B" indicates the offset.
  • the phase difference ⁇ is calculated from the four images I 0 , I 90 , I 180 , and I 270 acquired by the image acquisition unit 110 by shifting the phase by ⁇ / 2 and receiving light. do.
  • the four images I 0 , I 90 , I 180 , and I 270 to ⁇ can be represented by the following equations (4) to (7).
  • the phase difference ⁇ required to obtain the distance of each pixel to the subject can be obtained by the following formula (11).
  • the image processing unit 172 exposes the light emitting unit 111 with different phases while emitting light, and four phase phase images (images I 0 , I 90 , I 180 ) as shown in FIG. , I 270 ).
  • the image processing unit 172 calculates the I signal represented by the above formula (8) and the Q signal represented by the above formula (9). Then, the image processing unit 172 acquires a distance image by obtaining the phase difference ⁇ by the above-mentioned equation (11).
  • FIG. 7 is a diagram showing an example of a luminance image acquisition procedure according to the embodiment of the present disclosure.
  • the image processing unit 172 acquires a luminance image by sequentially executing noise correction, dark correction, and tone mapping (Tone Mapping) on the RAW image acquired by the image acquisition unit 110.
  • FIG. 8 is a diagram showing a list of functional examples related to the first sensor mode and the second sensor mode according to the embodiment of the present disclosure.
  • the number of exposures when the image acquisition unit 110 acquires an image is "4 times" in the first sensor mode and "1 time” in the second sensor mode. It is set. Further, in the example shown in FIG. 8, the exposure time when the image acquisition unit 110 acquires an image is set to a time corresponding to each sensor mode.
  • noise correction and distance calculation are set as functions necessary for the image processing unit 172 to acquire a distance image.
  • noise correction, dark correction, and tone mapping are set as functions necessary for the image processing unit 172 to acquire a luminance image.
  • Noise correction is set according to each sensor mode.
  • the function addition can be implemented by changing the firmware or changing the circuit configuration.
  • the recognition processing unit 173 executes subject recognition processing based on the image acquired by the image acquisition unit 110.
  • the recognition processing unit 173 executes the subject recognition process based on the distance image acquired by the image processing unit 172. do.
  • the result of the recognition process based on the distance image is used for the process of the application program that requires the recognition result of the subject with relatively high accuracy.
  • the recognition processing unit 173 performs subject recognition processing based on the luminance image acquired by the image processing unit 172. To execute.
  • the result of the recognition process based on the luminance image is used for the process of the application program that does not require the recognition result of the subject with high accuracy.
  • the application execution unit 174 executes the processing of the application program stored in the storage unit 160 based on the recognition result of the subject by the recognition processing unit 173.
  • the processing executed by the application execution unit 174 includes, for example, a 3D object operation performed in an AR environment or a VR environment.
  • FIG. 9 is a flowchart showing an example of a processing procedure of the information processing apparatus according to the embodiment of the present disclosure.
  • the processing procedure shown in FIG. 9 is executed by the control unit 170 included in the information processing apparatus 100.
  • the processing procedure shown in FIG. 9 is repeatedly executed during the operation of the information processing apparatus 100.
  • the determination unit 171 determines that the illuminance acquired by the illuminance acquisition unit 150 is less than a predetermined threshold value ⁇ . (Step S102).
  • step S102 determines that the illuminance is less than the threshold value ⁇ (step S102; Yes)
  • the determination unit 171 is in the first sensor mode with respect to the image acquisition unit 110, the image processing unit 172, and the recognition processing unit 173.
  • a sensor mode setting signal indicating operation is sent (step S103). Then, the determination unit 171 returns to the processing procedure of step S102 described above.
  • step S102 determines that the illuminance is equal to or higher than the threshold value ⁇ (step S102; No)
  • the determination unit 171 has a second sensor for the image acquisition unit 110, the image processing unit 172, and the recognition processing unit 173.
  • a sensor mode setting signal indicating that the mode is operated is sent (step S104). Then, the determination unit 171 returns to the processing procedure of step S102 described above.
  • the information processing apparatus 100 may be activated in the second sensor mode. Further, the information processing apparatus 100 may remain undecided in mode until the determination result of the determination unit 171 is obtained. In this case, the information processing apparatus 100 may control not to acquire the image until the sensor mode is determined.
  • the determination unit 171 determines whether to operate in the first sensor mode or the second sensor mode based on the illuminance has been described, but this example is particularly applicable. It doesn't have to be limited.
  • the determination unit 171 may perform mode determination based on the analysis result of the image, that is, the luminance value of the pixels constituting the distance image or the luminance image.
  • FIG. 10 is a diagram showing an outline of the operation of the determination unit according to the modified example.
  • the determination unit 171 acquires a distance image or a luminance image from the image processing unit 172. Then, the determination unit 171 determines which mode of the first sensor mode and the second sensor mode operates based on the brightness value of the pixels constituting the distance image or the luminance image.
  • the determination unit 171 causes the image acquired by the image processing unit 172 to be overexposed. It is judged that there is a low possibility that the distance information can be obtained. Then, a sensor mode setting signal indicating operation in the first sensor mode is sent to the image acquisition unit 110, the image processing unit 172, and the recognition processing unit 173.
  • the determination unit 171 causes the image acquired by the image processing unit 172 to be overexposed. It is judged that there is a high possibility that the distance information can be obtained. Then, the determination unit 171 sends a sensor mode setting signal indicating that it operates in the second sensor mode to the image acquisition unit 110, the image processing unit 172, and the recognition processing unit 173.
  • the determination unit 171 may perform mode determination in further considering the remaining power of the information processing apparatus 100 and the purpose of using the subject recognition result by the application program.
  • FIG. 11 is a diagram showing an outline of the operation of the determination unit according to the modified example.
  • the information processing apparatus 100 further includes a battery remaining amount measuring unit 175.
  • the battery remaining amount measuring unit 175 measures the remaining amount of electric power that can be supplied by the battery included in the information processing apparatus 100, and sends the measured remaining amount of electric power to the determination unit 171.
  • the application execution unit 174 sends the purpose-of-use information indicating the purpose of use of the recognition result of the subject to the determination unit 171.
  • the purpose of use information is information that specifies the purpose of using the recognition result of the user's hand.
  • the determination unit 171 is first based on the brightness values of the pixels included in the distance image or the brightness image, the remaining power amount acquired from the battery remaining amount measuring unit 175, and the purpose of use information acquired from the application execution unit 174. It is determined which of the sensor mode and the second sensor mode of the above is operated. For example, the determination unit 171 needs highly accurate recognition of the subject from the usage purpose information, and when the remaining battery level is a certain amount or more, the distance information can be acquired from the distance image acquired by the image processing unit 172. It is determined to operate in the first sensor mode on condition that the property is high.
  • the determination unit 171 does not require highly accurate recognition of the subject from the purpose of use information, or when the remaining battery level is less than a certain amount, the luminance image acquired by the image processing unit 172 causes blackout. It is determined to operate in the second sensor mode, provided that it does not exist.
  • FIG. 12 is a flowchart showing an example of the processing procedure of the information processing apparatus according to the modified example.
  • the determination unit 171 has high accuracy with respect to the subject based on the purpose of use information acquired from the application execution unit 174. It is determined whether or not the recognition result is required (step S202).
  • the remaining power amount is the threshold value ⁇ based on the remaining power amount acquired from the battery remaining amount measuring unit 175. It is determined whether or not it is the above (step S203).
  • step S203 determines that the remaining power is equal to or greater than the threshold value ⁇ (step S203; Yes), whether or not the area of the overexposed area in the distance image acquired from the image processing unit 172 is less than the threshold value ⁇ . Is determined (step S204).
  • step S204 When the determination unit 171 determines that the area of the overexposed area is less than the threshold value ⁇ (step S204; Yes), the determination unit 171 is the first to the image acquisition unit 110, the image processing unit 172, and the recognition processing unit 173. A sensor mode setting signal indicating operation in the sensor mode of 1 is sent (step S205). Then, the determination unit 171 returns to the processing procedure of step S202 described above.
  • step S202 when the determination unit 171 determines that a highly accurate recognition result is not required for the subject (step S202; No), the area of the blackened area is the threshold value in the luminance image acquired from the image processing unit 172. It is determined whether or not it is less than ⁇ (step S206).
  • step S206 When the determination unit 171 determines that the area of the blackened area is less than the threshold value ⁇ (step S206; Yes), the determination unit 171 is second to the image acquisition unit 110, the image processing unit 172, and the recognition processing unit 173. A sensor mode setting signal indicating operation in the sensor mode of is sent (step S207). Then, the determination unit 171 returns to the processing procedure of step S202 described above.
  • step S203 determines in the above-mentioned step S203 that the remaining power amount is less than the threshold value ⁇ (step S203; No)
  • the determination unit 171 moves to the processing procedure of the above-mentioned step S206. That is, even if the information processing apparatus 100 determines that a highly accurate recognition result is required for the subject, the information processing apparatus 100 does not execute the recognition process based on the distance image unless there is a remaining amount of power of a certain amount or more.
  • step S204 determines in step S204 described above that the area of the overexposed area is equal to or greater than the threshold value ⁇ (step S204; No)
  • the determination unit 171 moves to the processing procedure of step S207 described above. That is, when the information processing apparatus 100 needs a highly accurate recognition result for the subject and there is a high possibility that the distance image cannot be acquired even if there is a certain amount of power remaining, the information processing apparatus 100 performs the recognition process based on the distance image. Do not execute.
  • step S206 when the determination unit 171 determines that the area of the blackened area is equal to or greater than the threshold value ⁇ (step S206; No), the determination unit 171 moves to the processing procedure of step S205 described above. That is, when the information processing apparatus 100 does not require a highly accurate recognition result for the subject and there is a high possibility that the luminance image cannot be acquired even if the remaining power is less than a certain amount, the recognition process based on the luminance image is performed. Do not execute.
  • the determination unit 171 instructs the image acquisition unit 110 and the image processing unit 172 to acquire the distance image even before the sensor setting signal is transmitted, and steps.
  • a distance image for determining S204 can be acquired.
  • the determination unit 171 instructs the image acquisition unit 110 and the image processing unit 172 to acquire the luminance image even before the sensor setting signal is transmitted, and the step.
  • a luminance image for determining S206 can be acquired.
  • the information processing apparatus 100 may be activated in the second sensor mode. Further, the information processing apparatus 100 may remain undecided in mode until the determination result of the determination unit 171 is obtained.
  • Hybrid usage example (1)> In the above embodiment, an example of performing the recognition process based on the image acquired in the first sensor mode or the second sensor mode has been described. However, the luminance image acquired in the first sensor mode does not include the distance information to the subject. Therefore, there are two uncertainties described below, and the three-dimensional recognition performance of the subject is low. In the following, the uncertainty when the subject is the user's hand will be illustrated. [Example of uncertainty 1]: Since the size of the hand is unknown, it is not possible to distinguish whether the large hand is far away or the small hand is near. [Example 2 of uncertainty]: Since the balance of the shape of the hand is unknown, it is not possible to distinguish whether the long finger is folded in the back or the small finger is standing against the screen.
  • FIG. 13 is a block diagram showing an example of the functional configuration of the information processing apparatus according to the hybrid usage example (1).
  • the information processing apparatus 200 includes an image acquisition unit 210, an input unit 220, an output unit 230, a communication unit 240, an illuminance acquisition unit 250, a storage unit 260, and a control unit 270.
  • the image acquisition unit 210 corresponds to the image acquisition unit 110 shown in FIG. 4
  • the input unit 220 corresponds to the input unit 120 shown in FIG. 4
  • the output unit 230 corresponds to the output unit 130 shown in FIG.
  • the communication unit 240 corresponds to the communication unit 140 shown in FIG.
  • the storage unit 260 corresponds to the storage unit 160 shown in FIG. 4
  • the control unit 270 corresponds to the control unit 170 shown in FIG.
  • the information processing apparatus 200 shown in FIG. 13 has basically the same processing function as the information processing apparatus 100 shown in FIG. 4, but is different from the information processing apparatus 100 shown in FIG. 4 in the points described below.
  • the storage unit 260 has a three-dimensional model storage unit 261.
  • the three-dimensional model storage unit 261 stores the data of the three-dimensional model composed of the feature point positions of the subject.
  • the three-dimensional model storage unit 261 stores the data of the three-dimensional model for each user.
  • the three-dimensional model storage unit 261 stores data indicating the three-dimensional positions of feature points such as fingertips and joints (hereinafter referred to as "hand model").
  • the control unit 270 has a determination unit 271, an image processing unit 272, a recognition processing unit 273, and an application execution unit 274.
  • the determination unit 271 corresponds to the determination unit 171 shown in FIG. 4 and has the same processing function as the determination unit 171.
  • the application execution unit 274 corresponds to the application execution unit 174 shown in FIG. 4 and has the same processing function as the application execution unit 174.
  • the image processing unit 272 has the same processing function as the image processing unit 172 shown in FIG. Further, the image processing unit 272 generates a hand model based on the distance image acquired in the first sensor mode. The image processing unit 272 associates the generated hand model data with the user and stores it in the storage unit 260.
  • the recognition processing unit 273 is a three-dimensional subject generated in advance based on the relative feature point positions of the subject estimated based on the luminance image acquired by the image processing unit 272 and the result of the measurement processing by the measurement unit. Obtain the absolute feature point position of the subject based on the model.
  • the luminance image is an example of the second image.
  • FIG. 14 is a diagram showing an outline of the hybrid use example (1). An example of hybrid use (1) in the case where the user's hand of the information processing apparatus 200 is the subject will be described with reference to FIG.
  • the recognition processing unit 273 inputs the luminance image Gb acquired by the image processing unit 272 into the trained model MX1 .
  • the trained model MX1 is machine-learned so as to input a brightness image Gb that captures the user's hand as a subject and correctly infer the relative positional relationship between the feature points of the user's hand with respect to the camera position. It is a trained model.
  • a learning algorithm for generating the trained model MX1 CNN (Convolutional Neural Network) or the like can be used.
  • the learning algorithm is not particularly limited to CNN, and any learning algorithm may be used as long as a model capable of correctly inferring the relative positional relationship of the feature points of the subject can be generated.
  • the trained model MX1 can be generated.
  • the recognition processing unit 273 acquires the inference result CHP1 of the relative feature point position of the user's hand as the subject from the output of the trained model MX1.
  • the feature point position relative to the camera position indicates the position of the feature point specified two-dimensionally, and the distance between the image acquisition unit 210 and the feature point of the subject (user's hand) is indefinite. Means that Subsequently, the recognition processing unit 273 acquires the hand model HM associated with the user who is using the information processing device 200 from the three-dimensional model storage unit 261.
  • the recognition processing unit 273 inputs the inference result CHP1 of the relative feature point position of the user's hand acquired from the trained model MX1 and the hand model HM corresponding to the user's hand as the subject into the trained model MY1. ..
  • the trained model MY1 inputs the inference result CHP1 of the relative feature point position of the user's hand and the corresponding hand model HM, and the absolute positional relationship of the feature points of the user's hand with respect to the position of the camera. Is a trained model machine-learned to infer correctly.
  • CNN Convolutional Neural Network
  • CNN Convolutional Neural Network
  • the learning algorithm is not particularly limited to CNN, and any learning algorithm may be used as long as a model capable of correctly inferring the absolute positional relationship of the feature points of the subject can be generated.
  • the recognition processing unit 273 recognizes the subject included in the luminance image by using the three-dimensional model corresponding to the subject when recognizing the subject included in the luminance image acquired in the first sensor mode. The accuracy can be improved.
  • the joints of the hand model HM are bent at an arbitrary angle to generate a large amount of 3D coordinates of the feature points of the hand, and the 2D coordinates obtained by removing the depth information and the hand model HM are input.
  • the trained model MY1 can be generated by executing a general deep learning process as a task of outputting the three-dimensional coordinates of the feature points of the hand.
  • the recognition processing unit 273 acquires the absolute feature point position AHP1 of the user's hand, which is the subject, from the output of the trained model MY1.
  • the absolute feature point position with respect to the camera position indicates the position of the feature point specified three-dimensionally, and the distance between the image acquisition unit 210 and the feature point of the subject (user's hand) is determined. It means that you are doing it.
  • the recognition processing unit 273 sends the absolute feature point position AHP1 of the user's hand, which is the subject, to the application execution unit 274.
  • the application execution unit 274 executes the processing of the application program based on the feature point position AHP1 of the user's hand.
  • FIG. 15 is a block diagram showing an example of the functional configuration of the information processing apparatus according to the hybrid usage example (2).
  • the information processing apparatus 300 includes an image acquisition unit 310, an input unit 320, an output unit 330, a communication unit 340, an illuminance acquisition unit 350, a storage unit 360, and a control unit 370.
  • the image acquisition unit 310 corresponds to the image acquisition unit 110 shown in FIG. 4
  • the input unit 320 corresponds to the input unit 120 shown in FIG. 4
  • the output unit 330 corresponds to the output unit 130 shown in FIG.
  • the communication unit 340 corresponds to the communication unit 140 shown in FIG.
  • the storage unit 360 corresponds to the storage unit 160 shown in FIG. 4
  • the control unit 370 corresponds to the control unit 170 shown in FIG.
  • the information processing apparatus 300 shown in FIG. 15 has basically the same processing function as the information processing apparatus 100 shown in FIG. 4, but is different from the information processing apparatus 100 shown in FIG. 4 in the points described below.
  • the storage unit 360 has a distance image storage unit 361 and a luminance image storage unit 362.
  • the distance image storage unit 361 stores the distance image acquired by the image processing unit 272 in the first sensor mode in association with the time stamp.
  • the luminance image storage unit 362 stores the luminance image acquired by the image processing unit 272 in the second sensor mode in association with the time stamp.
  • the control unit 370 has a determination unit 371, an image processing unit 372, a recognition processing unit 373, and an application execution unit 374.
  • the determination unit 371 corresponds to the determination unit 171 shown in FIG. 4 and has the same processing function as the determination unit 171.
  • the image processing unit 372 corresponds to the image processing unit 172 shown in FIG. 4 and has the same processing function as the image processing unit 172.
  • the application execution unit 374 corresponds to the application execution unit 174 shown in FIG. 4 and has the same processing function as the application execution unit 174.
  • the recognition processing unit 373 is an absolute subject based on the relative feature point position of the subject estimated based on the luminance image acquired by the image processing unit 372 and the distance image acquired by the image processing unit 372. Get the feature point position.
  • FIG. 16 is a diagram showing an outline of the hybrid use example (2). An example of hybrid use (2) in the case where the user's hand of the information processing apparatus 200 is the subject will be described with reference to FIG.
  • the recognition processing unit 373 inputs the luminance image Gb acquired by the image processing unit 372 into the trained model MX2.
  • the trained model MX2 is machine-learned so as to input a brightness image Gb that captures the user's hand as a subject and correctly infer the relative positional relationship between the feature points of the user's hand with respect to the camera. It is a trained model and corresponds to the trained model MX1 shown in FIG.
  • the recognition processing unit 373 acquires the inference result CHP2 of the relative feature point position of the user's hand as the subject from the output of the trained model MX2. Subsequently, the recognition processing unit 373 obtains the distance image G d immediately before the time when the brightness image G b input to the trained model MX 2 is acquired from the distance images stored in the distance image storage unit 361. To get.
  • the recognition processing unit 373 sets the time closest to the acquired time of the brightness image Gb based on, for example, the time stamp associated with the brightness image Gb and the time stamp associated with the distance image Gd.
  • the acquired distance image Gd is acquired.
  • the recognition processing unit 373 obtains the distance information of the feature points of the user's hand normally acquired without failure from the acquired distance image Gd (for example, the distance information of the points indicated by the black circles in FIG. 16). get.
  • the recognition processing unit 373 inputs the inference result CHP2 of the relative feature point position of the user's hand as the subject and the distance information of the feature point of the user's hand acquired from the distance image Gd into the trained model MY2. ..
  • the trained model MY2 has the inference result CHP2 of the relative feature point position of the subject (user's hand) inferred from the brightness image Gb and the feature point of the (user's hand) acquired from the corresponding distance information. It is a trained model that has been machine-learned to correctly infer the absolute feature point position of the subject (user's hand) with respect to the camera by inputting distance information.
  • CNN Convolutional Neural Network
  • the learning algorithm is not particularly limited to CNN, and any learning algorithm may be used as long as a model capable of correctly inferring the absolute positional relationship of the feature points of the subject can be generated.
  • the recognition processing unit 373 is defective in the distance image by mutually complementarily using the feature point position obtained from the brightness image and the distance information obtained from the corresponding distance image when recognizing the subject. Distance information can be estimated and absolute feature point positions can be obtained. This makes it possible to improve the recognition performance of the recognition process based on the luminance image.
  • the recognition processing unit 373 acquires the absolute feature point position AHP2 of the user's hand, which is the subject, from the output of the trained model MY2. Then, the recognition processing unit 373 sends the absolute feature point position AHP2 of the user's hand, which is the subject, to the application execution unit 374.
  • the application execution unit 374 executes the processing of the application program based on the feature point position AHP2 of the user's hand.
  • the information processing devices 100, 200, and 300 may be realized by a dedicated computer system or a general-purpose computer system.
  • various programs for realizing the information processing method executed by the information processing devices 100, 200, 300 according to the embodiments and modifications of the present disclosure can be read by a computer such as an optical disk, a semiconductor memory, a magnetic tape, or a flexible disk. It may be stored and distributed in a possible recording medium or the like.
  • the AR glass 30 realizes the information processing method according to the embodiment and the modification of the present disclosure by installing and executing various programs on a computer.
  • various programs for realizing the information processing method executed by the information processing devices 100, 200, and 300 according to the embodiments and modifications of the present disclosure are stored in a disk device provided in a server device on a network such as the Internet. However, it may be possible to download it to a computer.
  • the functions provided by various programs for realizing the information processing methods executed by the information processing devices 100, 200, and 300 according to the embodiments and modifications of the present disclosure can be provided by the cooperation between the OS and the application program. It may be realized.
  • the part other than the OS may be stored in a medium and distributed, or the part other than the OS may be stored in the server device so that it can be downloaded to a computer or the like.
  • each component (see FIGS. 4, 13, and 15) of the information processing devices 100, 200, and 300 according to the embodiment of the present disclosure and the modified example is a functional concept and is not necessarily physically. It does not need to be configured as shown. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
  • FIG. 17 is a block diagram showing a hardware configuration example of a computer capable of realizing the information processing apparatus of the present disclosure.
  • Examples of the computer 1000 shown in FIG. 17 include a smartphone, a tablet, a head-mounted display, and the like. Note that FIG. 17 shows an example of a computer, and is not limited to the configuration shown in FIG.
  • the computer 1000 includes a camera 1001, a communication module 1002, a CPU 1003, a display 1004, a GPS (Global Posting System) module 1005, a main memory 1006, a flash memory 1007, and an audio I /. It includes an F (interface) 1008 and a battery I / F (interface) 1009. Each part of the computer 1000 is connected to each other by a bus 1010.
  • the camera 1001 is an image pickup apparatus, for example, a TOF type camera.
  • the functions of the image acquisition units 110, 210, and 310 described above can be realized by the camera 1001.
  • the communication module 1002 is a communication device.
  • a communication card for wired or wireless LAN (Local Area Network), LTE (Long Term Evolution), Bluetooth (registered trademark), WUSB (Wireless USB), or the like.
  • the communication device 3100 may be a router for optical communication, various communication modems, or the like.
  • the functions of the communication unit 140, the communication unit 240, and the communication unit 240 in the above-described embodiment and the like are realized by the communication module 1002.
  • the CPU 1003 functions as, for example, an arithmetic processing device or a control device, and controls all or a part of the operation of each component based on various programs recorded in the flash memory 1007.
  • the various programs stored in the flash memory 1007 include programs that provide various functions for realizing information processing of the information processing devices 100, 200, and 300 in the above-described embodiment and the like.
  • the computer 1000 may be equipped with a SoC (System-on-a-Chip) instead of the CPU 1003.
  • SoC System-on-a-Chip
  • the display 1004 is a display device, and is mounted by an LCD (Liquid Crystal Display), an organic EL (Electro-Luminescence) display, or the like.
  • the display 1004 may be implemented by a touch screen display with a touch screen.
  • the GPS module 1005 is a receiver that receives GPS signals transmitted from GPS satellites.
  • the GPS module 1005 sends a received GPS signal to the CPU 1003, and supports the calculation processing of the current position of the computer 1000 by the GPS module 1005.
  • the main memory 1006 is a main storage device mounted by RAM or the like, and for example, a program read into the CPU 1003, various parameters that change appropriately when a program read into the CPU 3010 is executed, and the like are temporarily or permanently stored. Will be done.
  • the flash memory 1007 is an auxiliary storage device, and stores programs read into the CPU 1003, data used for calculations, and the like. The functions of the storage units 160, 260, and 360 in the above embodiments and the like are realized by the main memory 1006 and the flash memory 1007.
  • the audio I / F (interface) 1008 connects an audio device such as a microphone or a speaker to the bus 1010.
  • the battery I / F (interface) 1009 connects the battery and a power supply line to each part of the computer 1000.
  • the CPU 1003, the main memory 1006, and the flash memory 1007 described above are each part (determination) included in the control unit 170 of the information processing apparatus 100 in the above embodiment in cooperation with software (various programs stored in the flash memory 1007 or the like).
  • the various functions of the unit 171 to the application execution unit 174) are realized.
  • the CPU 1003, the main memory 1006, and the flash memory 1007 described above are provided with the control unit 270 of the information processing apparatus 200 in the above modification in cooperation with software (various programs stored in the flash memory 1007 and the like).
  • Various functions of each unit (determination unit 271 to application execution unit 274) are realized.
  • the CPU 1003, the main memory 1006, and the flash memory 1007 described above are provided with the control unit 370 of the information processing apparatus 300 in the above modification in cooperation with software (various programs stored in the flash memory 1007 and the like).
  • Various functions of each unit are realized.
  • the CPU 1003 executes various programs for realizing information processing of the information processing devices 100, 200, 300, performs arithmetic processing and the like using data acquired via the camera 1001 and various interfaces, and performs arithmetic processing and the like, and the information processing devices 100, 200 , 300 information processing is executed.
  • the information processing apparatus includes an image acquisition unit, a measurement unit, and a recognition processing unit.
  • the image acquisition unit acquires an image by receiving external light at the light receiving unit.
  • the measuring unit measures the distance to the subject based on the first image acquired by the image acquisition unit in response to the irradiation of infrared rays from the light emitting unit.
  • the recognition processing unit performs subject recognition processing based on the second image acquired by the image acquisition unit that receives external light without irradiating infrared rays from the light emitting unit.
  • the information processing apparatus can obtain a sufficient recognition result in an environment where the influence of external light is strong, and can improve the image processing using the TOF type camera.
  • the information processing apparatus further has a determination unit for determining whether or not to perform measurement processing by the measurement unit.
  • the measurement unit performs the measurement process. That is, when the sensor mode setting signal acquired from the determination unit indicates the operation in the first sensor mode, the image processing unit functioning as the measurement unit receives the image acquisition unit in response to the irradiation of infrared rays from the light emitting unit. Based on the image (phase image) acquired by, a distance image is acquired and the distance to the subject is measured. As a result, the information processing apparatus can acquire the distance image when the measurement process can be performed normally.
  • the determination unit determines whether or not to perform the measurement process based on the illuminance of the external light received by the light receiving unit. Thereby, the information processing apparatus can determine whether or not to acquire the distance image in consideration of the external light tolerance of the TOF type camera.
  • the determination unit determines whether or not to perform the measurement process based on the analysis result of the image acquired by the image acquisition unit.
  • the information processing apparatus can determine whether or not to acquire a distance image in consideration of the external light resistance of the TOF type camera without measuring the illuminance.
  • the determination unit determines whether or not to perform the measurement process based on the remaining amount of electric power that can be supplied by the battery. As a result, the information processing apparatus can determine whether or not to acquire the distance image in consideration of the power required for the subject recognition process.
  • the determination unit determines whether or not to perform the measurement process based on the purpose of use of the result of the subject recognition process by the application. Thereby, the information processing apparatus can determine whether or not to acquire the distance image in consideration of the recognition accuracy required for the recognition process of the subject.
  • the recognition processing unit performs the recognition processing based on the first image when it is determined by the determination unit to perform the measurement processing, and when the determination unit determines that the measurement processing is not performed, the second The recognition process is performed based on the image of.
  • the information processing apparatus can use the recognition process based on the first image (distance image) and the recognition process based on the second image (luminance image) properly according to the situation.
  • the recognition processing unit is based on the relative feature point positions of the subject estimated based on the second image and the three-dimensional model of the subject generated in advance based on the result of the measurement processing by the measurement unit. Acquires the absolute feature point position of the subject. This makes it possible to improve the recognition performance of the recognition process based on the second image (luminance image).
  • the recognition processing unit performs measurement processing by the measurement unit for the feature point position of the subject estimated based on the second image and the first image acquired immediately before the time when the second image is acquired.
  • the absolute feature point position of the subject is acquired based on the distance to the feature point of the subject obtained from the result of. This makes it possible to improve the recognition performance of the recognition process based on the second image (luminance image).
  • the technology of the present disclosure can be configured as follows, assuming that it belongs to the technical scope of the present disclosure.
  • An image acquisition unit that acquires an image by receiving external light at the light receiving unit, and an image acquisition unit.
  • a measuring unit that measures the distance to the subject using a first image based on the image acquired by the image acquisition unit in response to the irradiation of infrared rays from the light emitting unit.
  • a recognition processing unit that performs subject recognition processing using a second image based on an image acquired by the image acquisition unit that receives external light without being irradiated with infrared rays from the light emitting unit.
  • Information processing device with.
  • the measuring unit When the determination unit determines that the measurement process is to be performed, the measurement process is performed.
  • the information processing apparatus according to (1) above.
  • the determination unit It is determined whether or not to perform the measurement process based on the illuminance of the external light received by the light receiving unit.
  • the information processing device according to (2) above.
  • the determination unit Based on the analysis result of the first image or the second image, it is determined whether or not to perform the measurement process.
  • (5) The determination unit Whether or not to perform the measurement process is determined based on the remaining amount of electric power that can be supplied by the battery.
  • the information processing apparatus according to (4) above.
  • the determination unit It is determined whether or not to perform the measurement process based on the purpose of use of the result of the recognition process by the application.
  • the information processing apparatus according to (4) or (5) above.
  • the recognition processing unit When the determination unit determines that the measurement process is to be performed, the recognition process is performed based on the first image, and when the determination unit determines that the measurement process is not performed, the second image. The recognition process is performed based on The information processing apparatus according to any one of (2) to (6).
  • the recognition processing unit The absolute subject is based on the relative feature point positions of the subject estimated based on the second image and the three-dimensional model of the subject generated in advance based on the result of the measurement process by the measuring unit. Get the feature point position, The information processing apparatus according to (1) above.
  • the recognition processing unit From the feature point position of the subject estimated based on the second image and the result of the measurement processing by the measuring unit for the first image acquired in the immediate vicinity of the time when the second image was acquired. Acquires the absolute feature point position of the subject based on the distance to the feature point of the subject obtained.
  • the information processing apparatus according to (1) above.
  • the processor An image is acquired by receiving external light, The distance to the subject was measured using the first image based on the image acquired in response to the irradiation of infrared rays.
  • a subject recognition process is performed using a second image based on an image obtained by receiving external light without being irradiated with infrared rays.
  • Information processing method is performed using a second image based on an image obtained by receiving external light without being irradiated with infrared rays.
  • the image is acquired by receiving external light, Using the first image based on the image acquired in response to the irradiation of infrared rays, the distance to the subject was measured. A second image based on an image obtained by receiving external light without being irradiated with infrared rays is used to perform subject recognition processing. Information processing program.
  • Information processing device 110 210, 310 Image acquisition unit 111, 211, 311 Light emitting unit 112, 212, 312 Light receiving unit 120, 220, 320 Input unit 130, 230, 330 Output unit 140, 240, 340 Communication Units 150, 250, 350 Illumination acquisition unit 160, 260, 360 Storage unit 170, 270, 370 Control unit 171, 271, 371 Judgment unit 172, 272, 372 Image processing unit 173, 273, 373 Recognition processing unit 174, 274, 374 Application execution unit 261 3D model storage unit 361 Distance image storage unit 362 Brightness image storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Vascular Medicine (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

情報処理装置(100)は、画像取得部(110)と、測定部(172)と、認識処理部(173)とを有する。画像取得部(110)は、受光部で外光を受光することで画像を取得する。測定部(172)は、発光部から赤外線が照射されたことに応じて画像取得部によって取得された画像に基づく第1の画像を用いて、被写体までの距離を測定する。認識処理部(173)は、発光部から赤外線が照射されずに外光を受光した画像取得部(110)によって取得された画像に基づく第2の画像を用いて、被写体の認識処理を行う。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 本開示は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
 従来、被写体の画像を解析して被写体までの距離を取得する技術として、TOF(Time of Flight)方式のカメラ(距離画像センサ)が知られている。TOF方式のカメラは、赤外線などの不可視光をパルス変調して画角内に照射し、被写体から反射される反射光の位相遅れを計測することにより、被写体までの距離を割り出すことができる。TOF方式のカメラは、その利便性から、スマートフォンやウェアラブルデバイス等における3次元的な画像認識処理に用いられている。
国際公開第2017/150246号
 しかしながら、TOF方式のカメラを用いた画像認識処理は、外光の影響が強い環境下において十分な認識結果を得ることが難しい。これは、TOF方式のカメラの外光耐性の低さが原因となっている。
 そこで、本開示では、TOF方式のカメラを用いた画像処理を改善できる情報処理装置、情報処理方法及び情報処理プログラムを提案する。
 上記の課題を解決するために、本開示に係る一形態の情報処理装置は、画像取得部と、測定部と、認識処理部とを有する。画像取得部は、受光部で外光を受光することで画像を取得する。測定部は、発光部から赤外線が照射されたことに応じて前記画像取得部によって取得された画像に基づく第1の画像を用いて、被写体までの距離を測定する。認識処理部は、発光部から赤外線が照射されずに外光を受光した前記画像取得部によって取得された画像に基づく第2の画像を用いて、被写体の認識処理を行う。
本開示の実施形態に係る情報処理の概要を示す模式図である。 本開示の実施形態に係る距離画像の一例を示す図である。 本開示の実施形態に係る距離画像と輝度画像の一例を示す図である。 本開示の実施形態に係る情報処理装置の構成例を示すブロック図である。 本開示の実施形態に係る判定部の動作の概要を示す図である。 本開示の実施形態に係る距離測定方法の一例を説明するための説明図である。 本開示の実施形態に係る輝度画像の取得手順の一例を示す図である。 本開示の実施形態に係る第1のセンサモード及び第2のセンサモードに関連する機能例の一覧を示す図である。 本開示の実施形態に係る情報処理装置の処理手順の一例を示すフローチャートである。 変形例に係る判定部の動作の概要を示す図である。 変形例に係る判定部の動作の概要を示す図である。 変形例に係る情報処理装置の処理手順の一例を示すフローチャートである。 ハイブリット利用例(1)に係る情報処理装置の機能構成の一例を示すブロック図である。 ハイブリット利用例(1)の概要を示す図である。 ハイブリット利用例(2)に係る情報処理装置の機能構成の一例を示すブロック図である。 ハイブリット利用例(2)の概要を示す図である。 本開示の情報処理装置を実現可能なコンピュータのハードウェア構成例を示すブロック図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の数字又は符号を付することにより重複する説明を省略する場合がある。また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の数字又は符号の後に異なる数字又は符号を付して区別する場合もある。
 また、以下に示す項目順序に従って本開示を説明する。
 1.本開示の実施形態に係る情報処理の概要
 2.装置構成例
 3.処理手順例
 4.変形例
  4-1.画像の輝度値に基づく動作モードの判定
  4-2.電力残量及び認識結果の利用目的に基づく判定
  4-3.ハイブリット利用例(1)
  4-4.ハイブリット利用例(2)
 5.その他
 6.ハードウェア構成例
 7.むすび
<<1.本開示の実施形態に係る情報処理の概要>>
 本開示の実施形態に係る情報処理の概要について説明する。図1は、本開示の実施形態に係る情報処理の概要を示す模式図である。
 図1に示すように、本開示の実施形態に係る情報処理装置100は、画像を取得し、取得した画像の認識結果に基づいて処理を行う装置である。情報処理装置100は、典型的にはスマートフォン等の電子機器である。情報処理装置100は、携帯電話、タブレット、ウェアラブル端末、PDA(Personal Digital Assistant)、パーソナルコンピュータ等であってもよい。情報処理装置100は、画像取得部110と、画像処理部172と、認識処理部173とを有する。
 画像取得部110は、受光部で外光を受光することで画像を取得する。ここで、外光は、屋外における太陽光のみならず、屋内であっても光の強度が一定の閾値を超える照明光等を含む。画像取得部110は、LED等のレーザを有する発光部と、CCD(Charge Coupled Device)イメージセンサ等を有する受光部とを備えたTOF方式のカメラにより実装される。
 画像取得部110は、情報処理装置100が第1のセンサモード及び第2のセンサモードのうちのいずれのセンサモードで動作するかに応じて、センサモードに合わせた画像を取得する。第1のセンサモードは、画像取得部110として機能するTOF方式のカメラが従来備えるセンサモードであり、発光部から光(赤外線)の照射を行って画像を取得するセンサモードである。第2のセンサモードは、画像取得部110として機能するTOF方式のカメラに新たに導入するセンサモードであり、発光部から光(赤外線)の照射を行わずに画像を取得するセンサモードである。
 画像取得部110は、第1のセンサモードである場合、発光部から光(赤外線)を位相を変えて照射し、受光部で受光(検知)した光の受光信号(強さ及び波長)を画素ごとに記録した複数の位相画像を取得する。また、画像取得部110は、第2の動作モードである場合、発光部から光(赤外線)を発光することなく、受光部で受光した光の受光信号を画素ごとに記録したRAW画像を取得する。
 画像処理部162は、画像取得部110により取得された画像の画像処理を実行する。画像処理部162は、第1のセンサモードである場合、発光部から赤外線が照射されたことに応じて画像取得部110によって取得された画像(位相画像)に基づく距離画像(第1の画像の一例)を用いて、被写体までの距離を測定する。また、画像処理部162は、第2のセンサモードである場合、発光部から赤外線が照射されずに外光を受光した画像取得部110によって取得された画像(RAW画像)に基づく輝度画像(第2の画像の一例)を取得する。図2は、本開示の実施形態に係る距離画像の一例を示す図である。図3は、本開示の実施形態に係る距離画像と輝度画像の一例を示す図である。なお、図3に示す左図及び右図は、同一の被写体(ユーザの手)を撮像したものである。
 例えば、太陽光や照明など、情報処理装置100の外部にある光源から照射される光の強度が大きくない環境下では、発光部から照射される赤外線が外部の光により阻害されることがない。このため、発光部から照射した赤外線を受光部でとらえることができ、図2の左図に示すように、画像処理部172は、画像取得部110により取得された位相画像から距離画像Gd1を生成できる。そして、画像処理部172は、その距離画像Gd1を用いて、図2の右図のように、被写体であるユーザの手の形状を認識できる。
 一方、外部の光の影響が大きい環境下では、発光部から照射される赤外線が阻害される。このため、例えば、図3の左図に示すように、発光部から赤外線が照射されたことに応じて画像取得部110により取得される距離画像Gd2の一部に距離が測定できない領域が発生する場合がある。そこで、情報処理装置100は第2のセンサモードで動作するように自装置を制御する。すなわち、図3の右図に示すように、画像処理部172は、発光部から赤外線が照射されずに外光を受光した画像取得部110によって取得された画像(例えばRAW画像)から輝度画像Gを生成する。そして、画像処理部172は、その輝度画像Gを用いて、図3の右図に示すように、被写体であるユーザの手の2次元的な位置情報を取得できる。このようにして、外部の光の影響が大きい環境下である場合、被写体までの距離情報(「距離座標」、又は「デプス」ともいう。)を取得することはできないが、少なくとも、被写体について2次元的な位置情報を取得できる。
 認識処理部173は、第1のセンサモードである場合、画像処理部172により取得された距離画像Gに基づいて、認識処理を実行する。また、認識処理部173は、第2のセンサモードである場合、画像処理部172により取得された輝度画像Gに基づいて、認識処理を実行する。
 このように、実施形態に係る情報処理装置100は、発光部から光(赤外線)の照射を行わずに画像を取得する第2の動作モードを導入する。そして、情報処理装置100は、第2の動作モードにより取得された輝度画像に基づいて認識処理を実行する。このようなことから、実施形態に係る情報処理装置100は、外光等の外部の光の影響が大きい環境下では、輝度画像を用いた認識処理を実行でき、TOF方式の距離画像センサを用いた画像処理を改善できる。
<<2.装置構成例>>
 以下、本開示の実施形態に係る情報処理装置100の構成について説明する。図4は、本開示の実施形態に係る情報処理装置の構成例を示すブロック図である。
 図4に示すように、情報処理装置100は、画像取得部110と、入力部120と、出力部130と、通信部140と、照度取得部150と、記憶部160と、制御部170とを有する。
 画像取得部110は、発光部111と、受光部112とを有する。画像取得部110は、受光部112で外光を受光することで画像を取得する。画像取得部110は、例えば、TOF方式のカメラにより実現できる。図4に示す例では、画像取得部110として機能するTOF方式のカメラが、発光部111として機能するLED等と、受光部112として機能するCCDイメージセンサ等とを内蔵している。
 画像取得部110は、情報処理装置100が第1のセンサモードで動作する場合、発光部から光(赤外線)を照射し、受光部で受光(検知)した光の受光信号(強さ及び波長)を画素ごとに記録した位相画像を取得する。また、画像取得部110は、情報処理装置100が第2の動作モードで動作する場合、発光部から光(赤外線)を発光することなく、受光部で受光した光の受光信号を画素ごとに記録したRAW画像を取得する。画像取得部110は、後述する判定部171から取得するセンサモード設定信号が第1のセンサモードでの動作を指示する信号である場合、位相画像を取得する。一方、画像取得部110は、後述する判定部171から取得するセンサモード設定信号が第2のセンサモードでの動作を指示する信号である場合、RAW画像を取得する。
 入力部120は、ユーザインタフェースとして情報処理装置100のユーザからの操作を受け付ける。入力部120は、例えば、各種のボタン、キーボード、タッチパネル、マウス、スイッチ、マイクなどにより実現できる。
 出力部130は、各種情報を出力する。出力部130は、各種情報を表示するCRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)等の表示デバイスや、音声等を出力するスピーカ等の音響デバイスにより実現できる。
 通信部140は、各種情報を送受信する。通信部140は、NIC(Network Interface Card)や各種通信用モデム等によって実現できる。
 照度取得部150は、外部の光の照度を取得する。照度取得部150は、例えば、照度センサにより実現できる。
 記憶部160は、制御部170により実行される各種処理機能を実現するためのプログラム及びデータ等を記憶する。記憶部160は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部160が記憶するプログラムには、OS(Operating System)やアプリケーションプログラムが含まれる。なお、記憶部160は、制御部170の補助記憶装置として機能してもよい。この場合、記憶部160は、画像取得部110により取得される位相画像やRAW画像、後述する画像処理部172により取得される距離画像や輝度画像などを一時記憶できる。
 制御部170は、例えば、情報処理装置100の各種処理を制御するコントローラである。制御部170により提供される各種機能は、例えば、プロセッサ等により、情報処理装置100の内部に記憶されたプログラム(例えば、本開示に係る情報処理プログラム)が主記憶装置等を作業領域として実行されることにより実現される。プロセッサは、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、SoC(System-on-a-Chip)等により実現できる。また、制御部170により提供される各種機能は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
 図4に示すように、制御部170は、判定部171と、画像処理部172と、認識処理部173と、アプリケーション実行部174とを備える。
 判定部171は、距離画像に基づく測定処理を行うか否かを判定する。例えば、情報処理装置100は、起動時に、第1のセンサモードを選択するように初期設定されている。そして、判定部171は、情報処理装置100の起動後、第1のセンサモード及び第2のセンサモードのうちのいずれのセンサモードで情報処理装置100を動作させるかを判定する。図5は、本開示の実施形態に係る判定部の動作の概要を示す図である。
 図5に示すように、判定部171は、照度取得部150により取得された照度に基づいて、測定処理を行うか否かを判定する。照度取得部150により取得される照度は、受光部112で受光した外光の照度に対応する。例えば、判定部171は、照度取得部150により取得される照度が予め定められる閾値未満である場合、測定処理を行うものと判定する。そして、判定部171は、画像取得部110と、画像処理部172と、認識処理部173とに対して、第1のセンサモードで動作することを示すセンサモード設定信号を送る。一方、判定部171は、受光部112で受光した外光の照度が予め定められる閾値以上である場合、測定処理を行わないものと判定する。そして、判定部171は、画像取得部110と、画像処理部172と、認識処理部173とに対して、第2のセンサモードで動作することを示すセンサモード設定信号を送る。
 画像処理部172は、画像取得部110により取得された画像の画像処理を実行する。画像処理部172は、判定部171から取得するセンサモード設定信号が第1のセンサモードでの動作を指示する場合、発光部111から赤外線が照射されたことに応じて画像取得部110によって取得された画像(位相画像)に基づいて、距離画像を取得し、被写体までの距離を測定する測定部として機能する。図6は、本開示の実施形態に係る距離測定方法の一例を説明するための説明図である。
 図6に示す例では、発光部111の赤外線の発光強度(IR発光強度)の調整を角周波数ωのsin波形で行い、赤外線の発光の波形と被写体から反射して戻ってきた光の波形との位相差φによって、被写体までの距離を測定する方法を示す。発光部111の発光波形は、以下に示す式(1)で表すことができる。また、受光部112の受光波形は、以下に示す式(2)で表すことができる。なお、以下の式(1)及び式(2)において、符号「A」は振幅を示し、符号「B」はオフセットを示す。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 ここで、前述の式(2)から、位相差φ=ωtであるので、各画素で位相差φを求めることができれば、光速を符号「c」で表す時、各画素の被写体までの距離は、以下の式(3)で算出できる。
Figure JPOXMLDOC01-appb-M000003
 例えば、図6に示す例では、π/2ずつ位相をずらして受光することにより画像取得部110により取得される4枚の画像I,I90,I180,I270から位相差φを計算する。4枚の画像I,I90,I180,I270からφは、以下の式(4)~式(7)で表すことができる。
Figure JPOXMLDOC01-appb-M000004
 前述の式(4)~式(7)から、画像Iと画像I180との間に、以下の式(8)に示す関係が成立し、画像I90と画像I270との間に、以下の式(9)に示す関係が成立する。
Figure JPOXMLDOC01-appb-M000005
 また、前述の式(8)及び式(9)から、以下の式(10)が求められる。
Figure JPOXMLDOC01-appb-M000006
 前述の式(10)を変形することにより、各画素の被写体までの距離を求めるために必要な位相差φは、以下の式(11)で求められる。
Figure JPOXMLDOC01-appb-M000007
 上述してきたように、画像処理部172は、発光部111を発光させながら、位相を変えて露光し、図6に示すような4枚の位相の位相画像(画像I,I90,I180,I270)を取得する。画像処理部172は、前述の式(8)で表されるI信号と、前述の式(9)で表されるQ信号を算出する。そして、画像処理部172は、前述の式(11)により位相差φを求めることにより、距離画像を取得する。
 また、画像処理部172は、判定部171から取得するセンサモード設定信号が第2のセンサモードでの動作を指示する場合、発光部111から赤外線が照射されずに受光部112が外光を受光することにより、画像取得部110によって取得された画像(RAW画像)から、輝度画像を取得する。図7は、本開示の実施形態に係る輝度画像の取得手順の一例を示す図である。
 図7に示すように、画像処理部172は、画像取得部110により取得されるRAW画像について、ノイズ補正、ダーク補正、トーンマッピング(Tone Mapping)を順に実行することにより、輝度画像を取得する。
 図8は、本開示の実施形態に係る第1のセンサモード及び第2のセンサモードに関連する機能例の一覧を示す図である。図8に示す例では、画像取得部110が画像を取得する際の露光回数は、第1のセンサモードである場合は「4回」、第2のセンサモードである場合は「1回」に設定されている。また、図8に示す例では、画像取得部110が画像を取得する際の露光時間は、それぞれのセンサモードに応じた時間が設定されている。
 また、図8に示すように、第1のセンサモードである場合、画像処理部172が距離画像を取得するために必要な機能として、ノイズ補正及び距離演算が設定されている。また、第2のセンサモードである場合、画像処理部172が輝度画像を取得するために必要な機能として、ノイズ補正、ダーク補正、トーンマッピング(Tone Mapping)が設定されている。ノイズ補正は、それぞれのセンサモードに応じた設定が行われる。
 図8に示すように、画像取得部110及び画像処理部172に対して、第2のセンサモードに応じた設定を追加することにより、TOF方式のカメラを用いて輝度画像の取得が可能となる。なお、機能追加は、ファームウェアの変更や、回路構成の変更により実装できる。
 認識処理部173は、画像取得部110により取得された画像に基づいて、被写体の認識処理を実行する。認識処理部173は、判定部171から取得するセンサモード設定信号が第1のセンサモードでの動作を指示する場合、画像処理部172により取得された距離画像に基づいて、被写体の認識処理を実行する。距離画像に基づく認識処理の結果は、比較的高精度な被写体の認識結果を必要とするアプリケーションプログラムの処理に用いられる。また、認識処理部173は、判定部171から取得するセンサモード設定信号が第2のセンサモードでの動作を指示する場合、画像処理部172により取得された輝度画像に基づいて、被写体の認識処理を実行する。輝度画像に基づく認識処理の結果は、高精度な被写体の認識結果を必要としないアプリケーションプログラムの処理に用いられる。
 アプリケーション実行部174は、認識処理部173による被写体の認識結果に基づいて、記憶部160に記憶されたアプリケーションプログラムの処理を実行する。アプリケーション実行部174が実行する処理は、例えば、AR環境やVR環境で行われる3Dオブジェクト操作等がある。
<<3.処理手順例>>
 以下、図9を用いて、本開示の実施形態に係る情報処理装置100の処理手順例について説明する。図9は、本開示の実施形態に係る情報処理装置の処理手順の一例を示すフローチャートである。図9に示す処理手順は、情報処理装置100が有する制御部170により実行される。図9に示す処理手順は、情報処理装置100の動作中、繰り返し実行される。
 図9に示すように、情報処理装置100が第1のセンサモードを選択して起動した後(ステップS101)、判定部171は、照度取得部150により取得された照度が予め定められる閾値α未満であるか否かを判定する(ステップS102)。
 判定部171は、照度が閾値α未満であると判定した場合(ステップS102;Yes)、画像取得部110と、画像処理部172と、認識処理部173とに対して、第1のセンサモードで動作することを示すセンサモード設定信号を送る(ステップS103)。そして、判定部171は、前述のステップS102の処理手順に戻る。
 一方、判定部171は、照度が閾値α以上であると判定した場合(ステップS102;No)、画像取得部110と、画像処理部172と、認識処理部173とに対して、第2のセンサモードで動作することを示すセンサモード設定信号を送る(ステップS104)。そして、判定部171は、前述のステップS102の処理手順に戻る。
 図9に示す処理手順において、情報処理装置100が第1のセンサモードで起動する例を説明したが、第2のセンサモードで起動してもよい。また、情報処理装置100は、判定部171の判定結果が出るまでは、モード未定のままでもよい。この場合、情報処理装置100は、センサモードが確定するまで画像の取得を行わないように制御してもよい。
<<4.変形例>>
 以下、上記実施形態に係る情報処理装置100の変形例について説明する。
<4-1.画像の輝度値に基づく動作モードの判定>
 上記実施形態では、判定部171が、照度に基づいて、第1のセンサモード及び第2のセンサモードのうちのいずれのモードで動作するかを判定する例について説明したが、この例には特に限定される必要はない。例えば、判定部171は、画像の解析結果、すなわち距離画像や輝度画像を構成する画素の輝度値に基づいて、モード判定を行ってもよい。図10は、変形例に係る判定部の動作の概要を示す図である。
 図10に示すように、判定部171は、画像処理部172から距離画像又は輝度画像を取得する。そして、判定部171は、距離画像又は輝度画像を構成する画素の輝度値に基づいて、第1のセンサモード及び第2のセンサモードのうちのいずれのモードで動作するかを判定する。
 例えば、距離画像に含まれる画素のうち、輝度値が所定の閾値βを超える画素数が所定数未満である場合、判定部171は、画像処理部172により取得された画像が白とびを起こしている可能性が低く、距離情報を取得できる可能性が高いと判断する。そして、第1のセンサモードで動作することを示すセンサモード設定信号を、画像取得部110、画像処理部172、及び認識処理部173に送る。
 一方、例えば、距離画像に含まれる画素のうち、輝度値が所定の閾値βを超える画素数が所定数以上ある場合、判定部171は、画像処理部172により取得された画像が白とびを起こしている可能性が高く、距離情報を取得できる可能性が低いと判断する。そして、判定部171は、第2のセンサモードで動作することを示すセンサモード設定信号を、画像取得部110、画像処理部172、及び認識処理部173に送る。
<4-2.電力残量及び認識結果の利用目的に基づく判定>
 前述の<4-1.>において、判定部171は、情報処理装置100の電力残量及びアプリケーションプログラムによる被写体の認識結果の利用目的をさらに考慮して、モード判定を行ってもよい。図11は、変形例に係る判定部の動作の概要を示す図である。
 図11に示すように、情報処理装置100は、バッテリー残量測定部175を更に有する。バッテリー残量測定部175は、情報処理装置100が備えるバッテリーにより供給可能な電力の残量を測定し、測定した電力の残量を判定部171に送る。また、アプリケーション実行部174は、被写体の認識結果の利用目的を示す利用目的情報を判定部171に送る。例えば、被写体がユーザの手である場合、利用目的情報は、ユーザの手の認識結果の利用する目的を特定する情報である。利用目的情報としては、比較的高精度な認識を必要とするレベルデザインがオープンワールドであるコンピュータゲームやコンピュータ支援設計、3次元オブジェクトの操作の他、高精度な認識を要求されないじゃんけんや手のジェスチャ認識などが例示される。
 判定部171は、距離画像又は輝度画像に含まれる画素の輝度値の他、バッテリー残量測定部175から取得する電力残量、及びアプリケーション実行部174から取得する利用目的情報に基づいて、第1のセンサモード及び第2のセンサモードのうちのいずれのモードで動作するかを判定する。例えば、判定部171は、利用目的情報から被写体について高精度な認識を必要とし、バッテリー残量が一定量以上残っている場合、画像処理部172により取得された距離画像から距離情報を取得できる可能性が高いことを条件として、第1のセンサモードで動作することを決定する。一方、判定部171は、利用目的情報から被写体について高精度な認識を要求されない場合や、バッテリー残量が一定量未満である場合、画像処理部172により取得された輝度画像が黒つぶれを起こしていないことを条件として、第2のセンサモードで動作することを決定する。
 以下、図12を用いて、変形例に係る情報処理装置100の処理手順例について説明する。図12は、変形例に係る情報処理装置の処理手順の一例を示すフローチャートである。
 図12に示すように、情報処理装置100が第1のセンサモードで起動した後(ステップS201)、判定部171は、アプリケーション実行部174から取得する利用目的情報に基づいて、被写体について高精度な認識結果が必要とされるか否かを判定する(ステップS202)。
 判定部171は、被写体について高精度な認識結果が必要とされると判定した場合(ステップS202;Yes)、バッテリー残量測定部175から取得した電力残量に基づいて、電力残量が閾値β以上であるか否かを判定する(ステップS203)。
 判定部171は、電力残量が閾値β以上であると判定した場合(ステップS203;Yes)、画像処理部172から取得する距離画像において白とびの領域の面積が閾値δ未満であるか否かを判定する(ステップS204)。
 判定部171は、白とびの領域の面積が閾値δ未満であると判定した場合(ステップS204;Yes)、画像取得部110と、画像処理部172と、認識処理部173とに対して、第1のセンサモードで動作することを示すセンサモード設定信号を送る(ステップS205)。そして、判定部171は、前述のステップS202の処理手順に戻る。
 前述のステップS202において、判定部171は、被写体について高精度な認識結果が必要とされないと判定した場合(ステップS202;No)、画像処理部172から取得する輝度画像において黒つぶれ領域の面積が閾値ε未満であるか否かを判定する(ステップS206)。
 判定部171は、黒つぶれ領域の面積が閾値ε未満であると判定した場合(ステップS206;Yes)、画像取得部110と、画像処理部172と、認識処理部173とに対して、第2のセンサモードで動作することを示すセンサモード設定信号を送る(ステップS207)。そして、判定部171は、前述のステップS202の処理手順に戻る。
 前述のステップS203において、判定部171は、電力残量が閾値β未満であると判定した場合(ステップS203;No)、前述のステップS206の処理手順に移る。つまり、情報処理装置100は、被写体について高精度な認識結果が必要とされると判定しても、一定量以上の電力残量がなければ、距離画像に基づく認識処理を実行しない。
 前述のステップS204において、判定部171は、白とびの領域の面積が閾値δ以上であると判定した場合(ステップS204;No)、前述のステップS207の処理手順に移る。つまり、情報処理装置100は、被写体について高精度な認識結果が必要とされ、一定量以上の電力残量があっても、距離画像を取得できない可能性が高い場合、距離画像に基づく認識処理を実行しない。
 前述のステップS206において、判定部171は、黒つぶれ領域の面積が閾値ε以上であると判定した場合(ステップS206;No)、前述のステップS205の処理手順に移る。つまり、情報処理装置100は、被写体について高精度な認識結果が必要とされず、電力残量が一定量未満であっても、輝度画像を取得できない可能性が高い場合、輝度画像に基づく認識処理を実行しない。
 なお、前述のステップS204の処理手順の実行に際して、判定部171は、センサ設定信号の送出前であっても、画像取得部110及び画像処理部172に対して距離画像の取得を指示し、ステップS204の判定のための距離画像を取得できる。また、判定部171は、前述のステップS206の処理手順の実行に際して、センサ設定信号の送出前であっても、画像取得部110及び画像処理部172に対して輝度画像の取得を指示し、ステップS206の判定のための輝度画像を取得できる。
 また、図12に示す処理手順において、情報処理装置100が第1のセンサモードで起動する例を説明したが、第2のセンサモードで起動してもよい。また、情報処理装置100は、判定部171の判定結果が出るまでは、モード未定のままでもよい。
<4-3.ハイブリット利用例(1)>
 上記実施形態では、第1のセンサモード又は第2のセンサモードで取得された画像に基づいて認識処理を行う例について説明してきた。しかしながら、第1のセンサモードで取得される輝度画像は、被写体までの距離情報を含まない。このため、以下に述べる2点の不確定性があり、被写体の3次元認識性能が低い。以下では、被写体がユーザの手である場合の不確定性について例示する。
[不確定性の例1]:手のサイズが分からないので、大きい手が遠くにあるのか、小さい手が近くにあるのかの区別がつかない。
[不確定性の例2]:手の形状のバランスが分からないので、長い指が奥に折れているのか、小さい指が画面に対して立っているのかの区別がつかない。
 前述の輝度画像に基づく手の認識における不確定性は、例えば、距離画像に基づく処理結果を利用することにより、解消できる。これにより、第1のセンサモードで取得される被写体の輝度画像であっても、被写体の認識性能を向上できる。以下では、第1のセンサモード時に取得された距離画像に基づく処理結果を、第1のセンサモード時に取得された輝度画像の認識処理に利用するハイブリット利用例(1)について説明する。図13は、ハイブリット利用例(1)に係る情報処理装置の機能構成の一例を示すブロック図である。
 図13に示すように、情報処理装置200は、画像取得部210と、入力部220と、出力部230と、通信部240と、照度取得部250と、記憶部260と、制御部270とを有する。画像取得部210は、図4に示す画像取得部110に対応し、入力部220は、図4に示す入力部120に対応し、出力部230は、図4に示す出力部130に対応し、通信部240は、図4に示す通信部140に対応する。また、記憶部260は、図4に示す記憶部160に対応し、制御部270は、図4に示す制御部170に対応する。図13に示す情報処理装置200は、図4に示す情報処理装置100と基本的には同様の処理機能を有するが、以下に説明する点が図4に示す情報処理装置100とは相違する。
 記憶部260は、3次元モデル記憶部261を有する。3次元モデル記憶部261は、被写体の特徴点位置で構成される3次元モデルのデータを記憶する。情報処理装置200が複数のユーザにより利用される場合、3次元モデル記憶部261には、ユーザごとに3次元モデルのデータが記憶される。被写体がユーザの手である場合、3次元モデル記憶部261は、指先や関節などの特徴点の3次元位置を示すデータ(以下、「ハンドモデル」と称する。)を記憶する。
 制御部270は、判定部271と、画像処理部272と、認識処理部273と、アプリケーション実行部274とを有する。判定部271は、図4に示す判定部171に対応し、判定部171と同様の処理機能を有する。また、アプリケーション実行部274は、図4に示すアプリケーション実行部174に対応し、アプリケーション実行部174と同様の処理機能を有する。
 画像処理部272は、図4に示す画像処理部172と同様の処理機能を有する。また、画像処理部272は、第1のセンサモード時に取得した距離画像に基づいて、ハンドモデルを生成する。画像処理部272は、生成したハンドモデルのデータをユーザに関連付けて記憶部260に格納する。
 認識処理部273は、画像処理部272により取得された輝度画像に基づいて推定された被写体の相対的な特徴点位置と、測定部による測定処理の結果に基づいて予め生成された被写体の3次元モデルと基づいて、被写体の絶対的な特徴点位置を取得する。輝度画像は、第2の画像の一例である。図14は、ハイブリット利用例(1)の概要を示す図である。図14を用いて、情報処理装置200の利用者の手が被写体である場合のハイブリット利用例(1)について説明する。
 図14に示すように、認識処理部273は、画像処理部272により取得された輝度画像Gを、学習済みモデルMX1に入力する。学習済みモデルMX1は、被写体であるユーザの手を撮像した輝度画像Gを入力し、カメラの位置に対してユーザの手の特徴点の相対的な位置関係を正しく推論するように機械学習された学習済みモデルである。学習済みモデルMX1を生成するための学習アルゴリズムとして、CNN(Convolutional Neural Network)などを利用できる。学習アルゴリズムは、CNNに特に限定される必要はなく、被写体の特徴点の相対的な位置関係を正しく推論できるモデルを生成できれば、どのような学習アルゴリズムを用いてもよい。CNNの場合、手の輝度画像と手の特徴点の2次元位置座標のペアを大量に用意し、輝度画像から手の2次元位置座標を出力するタスクとして一般的な深層学習の処理を実行することで、学習済みモデルMX1を生成することができる。
 認識処理部273は、学習済みモデルMX1の出力から、被写体であるユーザの手の相対的な特徴点位置の推論結果CHP1を取得する。なお、カメラの位置に対して相対的な特徴点位置とは、2次元的に特定される特徴点の位置を示し、画像取得部210と被写体(ユーザの手)の特徴点までの距離が不定であることを意味する。続いて、認識処理部273は、3次元モデル記憶部261から、情報処理装置200を利用中であるユーザに関連付けられたハンドモデルHMを取得する。
 認識処理部273は、学習済みモデルMX1から取得したユーザの手の相対的な特徴点位置の推論結果CHP1と、被写体であるユーザの手に対応するハンドモデルHMとを学習済みモデルMY1に入力する。学習済みモデルMY1は、ユーザの手の相対的な特徴点位置の推論結果CHP1と、対応するハンドモデルHMとを入力し、カメラの位置に対してユーザの手の特徴点の絶対的な位置関係を正しく推論するように機械学習された学習済みモデルである。学習済みモデルMY1を生成するための学習アルゴリズムとして、CNN(Convolutional Neural Network)などを利用できる。学習アルゴリズムは、CNNに特に限定される必要はなく、被写体の特徴点の絶対的な位置関係を正しく推論できるモデルを生成できれば、どのような学習アルゴリズムを用いてもよい。このように、認識処理部273は、第1のセンサモードで取得される輝度画像に含まれる被写体の認識時に、被写体に対応する3次元モデルを利用することにより、輝度画像に含まれる被写体の認識精度を向上できる。CNNの場合、ハンドモデルHMの関節を任意の角度に曲げて手の特徴点の3次元座標を大量に生成し、その奥行き情報を除去して得られる2次元座標とハンドモデルHMを入力として、手の特徴点の3次元座標を出力するタスクとして一般的な深層学習の処理を実行することで、学習済みモデルMY1を生成することができる。
 認識処理部273は、学習済みモデルMY1の出力から、被写体であるユーザの手の絶対的な特徴点位置AHP1を取得する。なお、カメラの位置に対して絶対的な特徴点位置とは、3次元的に特定される特徴点の位置を示し、画像取得部210と被写体(ユーザの手)の特徴点までの距離が確定していることを意味する。そして、認識処理部273は、被写体であるユーザの手の絶対的な特徴点位置AHP1をアプリケーション実行部274に送る。アプリケーション実行部274は、ユーザの手の特徴点位置AHP1に基づいて、アプリケーションプログラムの処理を実行する。
 上述してきたハイブリット利用例(1)は、前述の<<4.変形例>>においても同様の適用できる。
<4-4.ハイブリット利用例(2)>
 以下、被写体の認識時に、第1のセンサモード時に取得された距離画像(第1の画像の一例)と、第2のセンサモード時に取得された輝度画像(第2の画像の一例)とを利用するハイブリット利用例(2)について説明する。図15は、ハイブリット利用例(2)に係る情報処理装置の機能構成の一例を示すブロック図である。
 図15に示すように、情報処理装置300は、画像取得部310と、入力部320と、出力部330と、通信部340と、照度取得部350と、記憶部360と、制御部370とを有する。画像取得部310は、図4に示す画像取得部110に対応し、入力部320は、図4に示す入力部120に対応し、出力部330は、図4に示す出力部130に対応し、通信部340は、図4に示す通信部140に対応する。また、記憶部360は、図4に示す記憶部160に対応し、制御部370は、図4に示す制御部170に対応する。図15に示す情報処理装置300は、図4に示す情報処理装置100と基本的には同様の処理機能を有するが、以下に説明する点が図4に示す情報処理装置100とは相違する。
 記憶部360は、距離画像記憶部361と輝度画像記憶部362とを有する。距離画像記憶部361は、タイムスタンプに関連付けて、第1のセンサモード時に画像処理部272により取得された距離画像を記憶する。輝度画像記憶部362は、タイムスタンプに関連付けて、第2のセンサモード時に画像処理部272により取得された輝度画像を記憶する。
 制御部370は、判定部371と、画像処理部372と、認識処理部373と、アプリケーション実行部374とを有する。判定部371は、図4に示す判定部171に対応し、判定部171と同様の処理機能を有する。画像処理部372は、図4に示す画像処理部172に対応し、画像処理部172と同様の処理機能を有する。また、アプリケーション実行部374は、図4に示すアプリケーション実行部174に対応し、アプリケーション実行部174と同様の処理機能を有する。
 認識処理部373は、画像処理部372により取得された輝度画像に基づいて推定された被写体の相対的な特徴点位置と、画像処理部372により取得された距離画像と基づいて、被写体の絶対的な特徴点位置を取得する。図16は、ハイブリット利用例(2)の概要を示す図である。図16を用いて、情報処理装置200のユーザの手が被写体である場合のハイブリット利用例(2)について説明する。
 図16に示すように、認識処理部373は、画像処理部372により取得された輝度画像Gを、学習済みモデルMX2に入力する。学習済みモデルMX2は、被写体であるユーザの手を撮像した輝度画像Gを入力し、カメラに対してユーザの手の特徴点の相対的な位置関係を正しく推論するように機械学習された学習済みモデルであり、図14に示す学習済みモデルMX1に対応する。
 続いて、認識処理部373は、学習済みモデルMX2の出力から、被写体であるユーザの手の相対的な特徴点位置の推論結果CHP2を取得する。続いて、認識処理部373は、距離画像記憶部361に記憶された距離画像の中から、学習済みモデルMX2に入力した輝度画像Gが取得された時刻の直近で取得された距離画像Gを取得する。認識処理部373は、例えば、輝度画像Gbに関連付けられたタイムスタンプと、距離画像Gdに関連付けられたタイムスタンプとに基づいて、輝度画像Gの取得された時刻と時間的に最も近い時刻に取得された距離画像Gを取得する。そして、認識処理部373は、取得した距離画像Gから、破綻なく正常に取得されているユーザの手の特徴点の距離情報(例えば、図16の黒い丸印で示す点の距離情報)を取得する。
 認識処理部373は、被写体であるユーザの手の相対的な特徴点位置の推論結果CHP2と、距離画像Gから取得したユーザの手の特徴点の距離情報とを学習済みモデルMY2に入力する。学習済みモデルMY2は、輝度画像Gから推論された被写体(ユーザの手)の相対的な特徴点位置の推論結果CHP2と、対応する距離情報から取得された(ユーザの手)の特徴点の距離情報とを入力し、カメラに対して被写体(ユーザの手)の絶対的な特徴点位置を正しく推論するように機械学習された学習済みモデルである。学習済みモデルMY2を生成するための学習アルゴリズムとして、CNN(Convolutional Neural Network)などを利用できる。学習アルゴリズムは、CNNに特に限定される必要はなく、被写体の特徴点の絶対的な位置関係を正しく推論できるモデルを生成できれば、どのような学習アルゴリズムを用いてもよい。このように、認識処理部373は、被写体の認識時に、輝度画像から得られる特徴点位置と、対応する距離画像から得られる距離情報とを相互補完的に利用することにより、距離画像において欠損した距離情報を推定し、絶対的な特徴点位置を取得できる。これにより、輝度画像に基づく認識処理の認識性能を向上できる。
 認識処理部373は、学習済みモデルMY2の出力から、被写体であるユーザの手の絶対的な特徴点位置AHP2を取得する。そして、認識処理部373は、被写体であるユーザの手の絶対的な特徴点位置AHP2をアプリケーション実行部374に送る。アプリケーション実行部374は、ユーザの手の特徴点位置AHP2に基づいて、アプリケーションプログラムの処理を実行する。
 上述してきたハイブリット利用例(2)は、前述の<<4.変形例>>においても同様の適用できる。
<<5.その他>>
 本開示の実施形態及び変形例に係る情報処理装置100,200,300は、専用のコンピュータシステムで実現してもよいし、汎用のコンピュータシステムで実現してもよい。
 また、本開示の実施形態及び変形例に係る情報処理装置100,200,300により実行される情報処理方法を実現するための各種プログラムを、光ディスク、半導体メモリ、磁気テープ、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体等に格納して配布してもよい。このとき、例えば、ARグラス30は、各種プログラムをコンピュータにインストールして実行することにより、本開示の実施形態及び変形例に係る情報処理方法を実現する。
 また、本開示の実施形態及び変形例に係る情報処理装置100,200,300により実行される報処理方法を実現するための各種プログラムを、インターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。また、本開示の実施形態及び変形例に係る情報処理装置100,200,300により実行される情報処理方法を実現するための各種プログラムにより提供される機能を、OSとアプリケーションプログラムとの協働により実現してもよい。この場合には、OS以外の部分を媒体に格納して配布してもよいし、OS以外の部分をサーバ装置に格納しておき、コンピュータにダウンロード等できるようにしてもよい。
 また、本開示の実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
 また、本開示の実施形態に係る及び変形例に係る情報処理装置100,200,300の各構成要素(図4、図13、図15参照)は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
 また、本開示の実施形態は、処理内容を矛盾させない領域で適宜組み合わせることが可能である。また、本開示の実施形態に係るフローチャートに示された各ステップは、適宜順序を変更することが可能である。
<<6.ハードウェア構成>>
 図17を用いて、本開示の実施形態及び変形例に係る情報処理装置100,200,300を実現可能なコンピュータのハードウェア構成例について説明する。図17は、本開示の情報処理装置を実現可能なコンピュータのハードウェア構成例を示すブロック図である。図17に示すコンピュータ1000として、例えば、スマートフォンやタブレット、ヘッドマウントディスプレイなどが例示される。なお、図17は、コンピュータの一例を示すものであり、図17に示す構成には限定される必要はない。
 図17に示すように、コンピュータ1000は、カメラ1001と、通信モジュール1002と、CPU1003と、ディスプレイ1004と、GPS(Global Posting System)モジュール1005と、メインメモリ1006と、フラッシュメモリ1007と、オーディオI/F(インターフェイス)1008と、バッテリーI/F(インターフェイス)1009とを備える。コンピュータ1000が有する各部は、バス1010により相互に接続されている。
 カメラ1001は、撮像装置であり、例えば、TOF方式のカメラである。前述の画像取得部110、210、310の機能は、カメラ1001により実現できる。
 通信モジュール1002は、通信デバイスである。例えば、有線又は無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード等である。また、通信装置3100は、光通信用のルータ、又は各種通信用モデム等であってもよい。上記実施形態等における通信部140、通信部240、及び通信部240の機能は、通信モジュール1002により実現される。
 CPU1003は、例えば、演算処理装置又は制御装置として機能し、フラッシュメモリ1007に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。フラッシュメモリ1007に記憶される各種プログラムは、上記実施形態等における情報処理装置100,200,300の情報処理を実現するための各種機能を提供するプログラムを含む。なお、コンピュータ1000は、CPU1003の代わりには、SoC(System-on-a-Chip)を実装してもよい。
 ディスプレイ1004は、表示装置であり、LCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイなどにより実装される。ディスプレイ1004は、タッチスクリーンを備えたタッチスクリーンディスプレイにより実装されてもよい。
 GPSモジュール1005は、GPS衛星から発信されるGPS信号を受信する受信機である。GPSモジュール1005は、受信したGPS信号をCPU1003に送出し、GPSモジュール1005によるコンピュータ1000の現在位置の演算処理をサポートする。
 メインメモリ1006は、RAMなどにより実装される主記憶装置であり、例えば、CPU1003に読み込まれるプログラムや、CPU3010に読み込まれるプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。フラッシュメモリ1007は、補助記憶装置であり、CPU1003に読み込まれるプログラムや演算に用いるデータ等を格納する。上記実施形態等における記憶部160、260、360の機能は、メインメモリ1006やフラッシュメモリ1007により実現される。
 オーディオI/F(インターフェイス)1008は、マイクやスピーカなどの音響装置とバス1010とを接続する。バッテリーI/F(インターフェイス)1009は、バッテリーと、コンピュータ1000の各部への電源供給ラインとを接続する。
 前述のCPU1003、メインメモリ1006、及びフラッシュメモリ1007は、ソフトウェア(フラッシュメモリ1007等に記憶される各種プログラム)との協働により、上記実施形態における情報処理装置100の制御部170が備える各部(判定部171~アプリケーション実行部174)の各種機能を実現する。同様に、前述のCPU1003、メインメモリ1006、及びフラッシュメモリ1007は、ソフトウェア(フラッシュメモリ1007等に記憶される各種プログラム)との協働により、上記変形例における情報処理装置200の制御部270が備える各部(判定部271~アプリケーション実行部274)の各種機能を実現する。同様に、前述のCPU1003、メインメモリ1006、及びフラッシュメモリ1007は、ソフトウェア(フラッシュメモリ1007等に記憶される各種プログラム)との協働により、上記変形例における情報処理装置300の制御部370が備える各部(判定部371~アプリケーション実行部374)の各種機能を実現する。CPU1003は、情報処理装置100,200,300の情報処理を実現するための各種プログラムを実行し、カメラ1001や各種インターフェイス介して取得するデータを用いて演算処理等を行い、情報処理装置100,200,300の情報処理を実行する。
<<7.むすび>>
 本開示の実施形態に係る情報処理装置は、画像取得部と、測定部と、認識処理部とを有する。画像取得部は、受光部で外光を受光することで画像を取得する。測定部は、発光部から赤外線が照射されたことに応じて画像取得部によって取得された第1の画像に基づいて、被写体までの距離を測定する。認識処理部は、発光部から赤外線が照射されずに外光を受光した画像取得部によって取得された第2の画像に基づいて、被写体の認識処理を行う。
 このようなことから、情報処理装置は、外光の影響が強い環境下において十分な認識結果を得ることができ、TOF方式のカメラを用いた画像処理を改善できる。
 また、情報処理装置は、測定部による測定処理を行うか否かを判定する判定部をさらに有する。測定部は、判定部によって測定処理を行うと判定された場合に、測定処理を行う。すなわち、測定部として機能する画像処理部は、判定部から取得するセンサモード設定信号が第1のセンサモードでの動作を指示する場合、発光部から赤外線が照射されたことに応じて画像取得部によって取得された画像(位相画像)に基づいて、距離画像を取得し、被写体までの距離を測定する。これにより、情報処理装置は、測定処理を正常に行える場合に距離画像の取得を実行できる。
 また、判定部は、受光部で受光した外光の照度に基づいて、測定処理を行うか否かを判定する。これにより、情報処理装置は、TOF方式のカメラの外光耐性を考慮して、距離画像を取得するか否かを判断できる。
 また、判定部は、画像取得部により取得された画像の解析結果に基づいて、測定処理を行うか否かを判定する。これにより、情報処理装置は、照度を測定することなく、TOF方式のカメラの外光耐性を考慮して、距離画像を取得するか否かを判断できる。
 また、判定部は、バッテリーにより供給可能な電力の残量に基づいて、前記測定処理を行うか否かを判定する。これにより、情報処理装置は、被写体の認識処理に必要な電力を考慮して、距離画像を取得するか否かを判断できる。
 また、判定部は、アプリケーションによる被写体の認識処理の結果の利用目的に基づいて、測定処理を行うか否かを判定する。これにより、情報処理装置は、被写体の認識処理に必要とされる認識精度を考慮して、距離画像を取得するか否かを判断できる。
 また、認識処理部は、判定部によって測定処理を行うと判定された場合に、第1の画像に基づいて認識処理を行い、判定部によって測定処理を行わないと判定された場合に、第2の画像に基づいて認識処理を行う。これにより、情報処理装置は、第1の画像(距離画像)に基づく認識処理と、第2の画像(輝度画像)に基づく認識処理を、状況に応じて使い分けることが可能となる。
 また、認識処理部は、第2の画像に基づいて推定された被写体の相対的な特徴点位置と、測定部による測定処理の結果に基づいて予め生成された被写体の3次元モデルと基づいて、被写体の絶対的な特徴点位置を取得する。これにより、第2の画像(輝度画像)に基づく認識処理の認識性能を向上できる。
 また、認識処理部は、第2の画像に基づいて推定された被写体の特徴点位置と、第2の画像が取得された時刻の直近で取得された第1の画像についての測定部による測定処理の結果から得られる被写体の特徴点までの距離とに基づいて、被写体の絶対的な特徴点位置を取得する。これにより、第2の画像(輝度画像)に基づく認識処理の認識性能を向上できる。
 以上、本開示の実施形態及び変形例について説明したが、本開示の技術的範囲は、上述の実施形態及び変形例に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示の技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者にとって明らかな他の効果を奏しうる。
 なお、本開示の技術は、本開示の技術的範囲に属するものとして、以下のような構成もとることができる。
(1)
 受光部で外光を受光することで画像を取得する画像取得部と、
 発光部から赤外線が照射されたことに応じて前記画像取得部によって取得された画像に基づく第1の画像を用いて、被写体までの距離を測定する測定部と、
 前記発光部から赤外線が照射されずに外光を受光した前記画像取得部によって取得された画像に基づく第2の画像を用いて、被写体の認識処理を行う認識処理部と、
 を有する情報処理装置。
(2)
 前記測定部による測定処理を行うか否かを判定する判定部をさらに有し、
 前記測定部は、
 前記判定部によって測定処理を行うと判定された場合に、前記測定処理を行う、
 前記(1)に記載の情報処理装置。
(3)
 前記判定部は、
 前記受光部で受光した外光の照度に基づいて、前記測定処理を行うか否かを判定する、
 前記(2)に記載の情報処理装置。
(4)
 前記判定部は、
 前記第1の画像又は前記第2の画像の解析結果に基づいて、前記測定処理を行うか否かを判定する、
 前記(2)に記載の情報処理装置。
(5)
 前記判定部は、
 バッテリーにより供給可能な電力の残量に基づいて、前記測定処理を行うか否かを判定する、
 前記(4)に記載の情報処理装置。
(6)
 前記判定部は、
 アプリケーションによる前記認識処理の結果の利用目的に基づいて、前記測定処理を行うか否かを判定する、
 前記(4)又は前記(5)に記載の情報処理装置。
(7)
 前記認識処理部は、
 前記判定部によって測定処理を行うと判定された場合に、前記第1の画像に基づいて前記認識処理を行い、前記判定部によって測定処理を行わないと判定された場合に、前記第2の画像に基づいて前記認識処理を行う、
 前記(2)~前記(6)のいずれか1つに記載の情報処理装置。
(8)
 前記認識処理部は、
 前記第2の画像に基づいて推定された被写体の相対的な特徴点位置と、前記測定部による測定処理の結果に基づいて予め生成された被写体の3次元モデルと基づいて、被写体の絶対的な特徴点位置を取得する、
 前記(1)に記載の情報処理装置。
(9)
 前記認識処理部は、
 前記第2の画像に基づいて推定された被写体の特徴点位置と、前記第2の画像が取得された時刻の直近で取得された前記第1の画像についての前記測定部による測定処理の結果から得られる被写体の特徴点までの距離とに基づいて、被写体の絶対的な特徴点位置を取得する、
 前記(1)に記載の情報処理装置。
(10)
 プロセッサが、
 外光を受光することで画像を取得し、
 赤外線が照射されたことに応じて取得された画像に基づく第1の画像を用いて、被写体までの距離を測定し、
 赤外線が照射されずに外光を受光して取得された画像に基づく第2の画像を用いて、被写体の認識処理を行う、
 情報処理方法。
(11)
 プロセッサに、
 外光を受光することで画像を取得させ、
 赤外線が照射されたことに応じて取得された画像に基づく第1の画像を用いて、被写体までの距離を測定させ、
 赤外線が照射されずに外光を受光して取得された画像に基づく第2の画像を用いて、被写体の認識処理を行わせる、
 情報処理プログラム。
100、200、300 情報処理装置
110、210、310 画像取得部
111、211、311 発光部
112、212、312 受光部
120、220、320 入力部
130、230、330 出力部
140、240、340 通信部
150、250、350 照度取得部
160、260、360 記憶部
170、270、370 制御部
171、271、371 判定部
172、272、372 画像処理部
173、273、373 認識処理部
174、274、374 アプリケーション実行部
261 3次元モデル記憶部
361 距離画像記憶部
362 輝度画像記憶部

Claims (11)

  1.  受光部で外光を受光することで画像を取得する画像取得部と、
     発光部から赤外線が照射されたことに応じて前記画像取得部によって取得された画像に基づく第1の画像を用いて、被写体までの距離を測定する測定部と、
     前記発光部から赤外線が照射されずに外光を受光した前記画像取得部によって取得された画像に基づく第2の画像を用いて、被写体の認識処理を行う認識処理部と、
     を有する情報処理装置。
  2.  前記測定部による測定処理を行うか否かを判定する判定部をさらに有し、
     前記測定部は、
     前記判定部によって測定処理を行うと判定された場合に、前記測定処理を行う、
     請求項1に記載の情報処理装置。
  3.  前記判定部は、
     前記受光部で受光した外光の照度に基づいて、前記測定処理を行うか否かを判定する、
     請求項2に記載の情報処理装置。
  4.  前記判定部は、
     前記第1の画像又は前記第2の画像の解析結果に基づいて、前記測定処理を行うか否かを判定する、
     請求項2に記載の情報処理装置。
  5.  前記判定部は、
     バッテリーにより供給可能な電力の残量に基づいて、前記測定処理を行うか否かを判定する、
     請求項4に記載の情報処理装置。
  6.  前記判定部は、
     アプリケーションによる前記認識処理の結果の利用目的に基づいて、前記測定処理を行うか否かを判定する、
     請求項5に記載の情報処理装置。
  7.  前記認識処理部は、
     前記判定部によって測定処理を行うと判定された場合に、前記第1の画像に基づいて前記認識処理を行い、前記判定部によって測定処理を行わないと判定された場合に、前記第2の画像に基づいて前記認識処理を行う、
     請求項2に記載の情報処理装置。
  8.  前記認識処理部は、
     前記第2の画像に基づいて推定された被写体の相対的な特徴点位置と、前記測定部による測定処理の結果に基づいて予め生成された被写体の3次元モデルと基づいて、被写体の絶対的な特徴点位置を取得する、
     請求項1に記載の情報処理装置。
  9.  前記認識処理部は、
     前記第2の画像に基づいて推定された被写体の特徴点位置と、前記第2の画像が取得された時刻の直近で取得された前記第1の画像についての前記測定部による測定処理の結果から得られる被写体の特徴点までの距離とに基づいて、被写体の絶対的な特徴点位置を取得する、
     請求項1に記載の情報処理装置。
  10.  プロセッサが、
     外光を受光することで画像を取得し、
     赤外線が照射されたことに応じて取得された画像に基づく第1の画像を用いて、被写体までの距離を測定し、
     赤外線が照射されずに外光を受光して取得された画像に基づく第2の画像を用いて、被写体の認識処理を行う、
     情報処理方法。
  11.  プロセッサに、
     外光を受光することで画像を取得させ、
     赤外線が照射されたことに応じて取得された画像に基づく第1の画像を用いて、被写体までの距離を測定させ、
     赤外線が照射されずに外光を受光して取得された画像に基づく第2の画像を用いて、被写体の認識処理を行わせる、
     情報処理プログラム。
PCT/JP2021/028212 2020-08-17 2021-07-29 情報処理装置、情報処理方法及び情報処理プログラム WO2022038991A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/006,925 US20230290113A1 (en) 2020-08-17 2021-07-29 Information processing device, information processing method, and information processing program
EP21858139.5A EP4198570A4 (en) 2020-08-17 2021-07-29 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-137410 2020-08-17
JP2020137410 2020-08-17

Publications (1)

Publication Number Publication Date
WO2022038991A1 true WO2022038991A1 (ja) 2022-02-24

Family

ID=80350350

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/028212 WO2022038991A1 (ja) 2020-08-17 2021-07-29 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (3)

Country Link
US (1) US20230290113A1 (ja)
EP (1) EP4198570A4 (ja)
WO (1) WO2022038991A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220210311A1 (en) * 2019-09-30 2022-06-30 Fujifilm Corporation Processing apparatus, electronic apparatus, processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090010633A1 (en) * 2007-07-06 2009-01-08 Flir Systems Ab Camera and method for use with camera
WO2015011869A1 (ja) * 2013-07-23 2015-01-29 パナソニックIpマネジメント株式会社 撮像装置及びその駆動方法
WO2015104870A1 (ja) * 2014-01-08 2015-07-16 三菱電機株式会社 画像生成装置
WO2017150246A1 (ja) 2016-02-29 2017-09-08 パナソニックIpマネジメント株式会社 撮像装置、及びそれに用いられる固体撮像素子
JP2018119942A (ja) * 2017-01-20 2018-08-02 キヤノン株式会社 撮像装置及びその監視方法並びにプログラム
JP2018156408A (ja) * 2017-03-17 2018-10-04 マクセル株式会社 画像認識撮像装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10841491B2 (en) * 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090010633A1 (en) * 2007-07-06 2009-01-08 Flir Systems Ab Camera and method for use with camera
WO2015011869A1 (ja) * 2013-07-23 2015-01-29 パナソニックIpマネジメント株式会社 撮像装置及びその駆動方法
WO2015104870A1 (ja) * 2014-01-08 2015-07-16 三菱電機株式会社 画像生成装置
WO2017150246A1 (ja) 2016-02-29 2017-09-08 パナソニックIpマネジメント株式会社 撮像装置、及びそれに用いられる固体撮像素子
JP2018119942A (ja) * 2017-01-20 2018-08-02 キヤノン株式会社 撮像装置及びその監視方法並びにプログラム
JP2018156408A (ja) * 2017-03-17 2018-10-04 マクセル株式会社 画像認識撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4198570A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220210311A1 (en) * 2019-09-30 2022-06-30 Fujifilm Corporation Processing apparatus, electronic apparatus, processing method, and program
US11979666B2 (en) * 2019-09-30 2024-05-07 Fujifilm Corporation Processing apparatus, electronic apparatus, processing method, and program

Also Published As

Publication number Publication date
EP4198570A1 (en) 2023-06-21
US20230290113A1 (en) 2023-09-14
EP4198570A4 (en) 2024-01-17

Similar Documents

Publication Publication Date Title
US11004223B2 (en) Method and device for obtaining image, and recording medium thereof
US10217290B2 (en) Registration between actual mobile device position and environmental model
WO2020010848A1 (zh) 控制方法、微处理器、计算机可读存储介质及计算机设备
JP6258953B2 (ja) 単眼視覚slamのための高速初期化
RU2635836C2 (ru) Способ и устройство для управления вспышкой и терминал
US20170059305A1 (en) Active illumination for enhanced depth map generation
US20140247280A1 (en) Federated mobile device positioning
WO2022042566A1 (zh) 基于标记点的三维手势的识别方法、装置及设备
CN109584375B (zh) 一种物体信息显示方法及移动终端
JP2016524265A (ja) 光源の特性を決定する方法及びモバイルデバイス
JP2020042772A (ja) 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム
US9921054B2 (en) Shooting method for three dimensional modeling and electronic device supporting the same
WO2022038991A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR20130117303A (ko) 증강 현실 이미지를 디스플레이하기 위한 방법 및 그 전자 장치
KR20220035250A (ko) 공동 환경 재구성 및 카메라 교정
JP2015024480A (ja) 情報処理装置、制御方法、及びプログラム
CN113487662B (zh) 画面显示方法、装置、电子设备和存储介质
CN113545028A (zh) 用于面部认证的增益控制
CN109242782B (zh) 噪点处理方法及装置
US20160063711A1 (en) Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method
CN115880448B (zh) 基于双目成像的三维测量方法及装置
JP6368593B2 (ja) 画像処理プログラム、情報処理システム、画像処理方法
JP6390163B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2021199225A1 (ja) 情報処理システム、センサシステム、情報処理方法、及びプログラム
CN114115661A (zh) 一种光疗装置的发光控制方法、装置、设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21858139

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2021858139

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021858139

Country of ref document: EP

Effective date: 20230317

NENP Non-entry into the national phase

Ref country code: JP