WO2015118756A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2015118756A1
WO2015118756A1 PCT/JP2014/081561 JP2014081561W WO2015118756A1 WO 2015118756 A1 WO2015118756 A1 WO 2015118756A1 JP 2014081561 W JP2014081561 W JP 2014081561W WO 2015118756 A1 WO2015118756 A1 WO 2015118756A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
processing apparatus
principal component
display screen
point cloud
Prior art date
Application number
PCT/JP2014/081561
Other languages
English (en)
French (fr)
Inventor
石綿 克利
聡嗣 鈴木
岡本 直也
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP14881829.7A priority Critical patent/EP3106968B1/en
Priority to JP2015561166A priority patent/JP6447521B2/ja
Priority to US15/115,311 priority patent/US10088910B2/en
Publication of WO2015118756A1 publication Critical patent/WO2015118756A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • a gesture of an operator's hand is recognized based on the learned three-dimensional model data of the human body. Therefore, for example, by using the technique described in Patent Document 1, it is possible to realize an operation for designating a position on the display screen (hereinafter, sometimes referred to as “pointing operation”) by an operator's gesture. There is sex.
  • the pointing operation intended by the operator can be stably realized. Is not limited.
  • This disclosure proposes a new and improved information processing apparatus, information processing method, and program capable of determining a designated position on a display screen based on a distance image.
  • a point cloud generation unit that generates a point cloud from a distance image in which a distance corresponding to the distance from the display screen to the object is represented, and a principal component analysis is performed on the generated point cloud.
  • an information processing apparatus comprising: a position determination unit that detects a vector corresponding to an object related to position specification based on a result and determines a specified position specified on the display screen.
  • the step of generating a point cloud from a distance image representing a distance corresponding to the distance from the display screen to the object a principal component analysis is performed on the generated point cloud, and the analysis result
  • An information processing method executed by the information processing apparatus includes detecting a vector corresponding to an object related to position designation based on the above and determining a designated position designated on the display screen.
  • the step of generating a point cloud from a distance image representing a distance corresponding to the distance from the display screen to the object a principal component analysis is performed on the generated point cloud, and an analysis result is obtained.
  • a program for causing a computer to execute a step of detecting a vector corresponding to an object related to position designation based on the position and determining a designated position designated on the display screen a program for causing a computer to execute a step of detecting a vector corresponding to an object related to position designation based on the position and determining a designated position designated on the display screen.
  • the designated position on the display screen can be determined based on the distance image.
  • the information processing apparatus displays, for example, based on a distance image in which a distance corresponding to a distance from a display screen to an object is represented
  • the position of the display screen designated with respect to the screen (hereinafter referred to as “designated position”) is determined.
  • the distance image according to the present embodiment is generated based on, for example, a stereo image generated by imaging the direction facing the display screen from the display screen side.
  • the stereo image according to the present embodiment is, for example, two captured images captured by the imaging device with the imaging position shifted in parallel.
  • the two captured images constituting the stereo image according to the present embodiment correspond to, for example, a right eye image corresponding to the user's right eye and a left eye image corresponding to the user's left eye in the case of realizing stereoscopic viewing.
  • the distance image according to the present embodiment is generated using any technique capable of generating a distance image from a stereo image, such as a method using the principle of triangulation.
  • An imaging device related to generation of a stereo image is arranged so that, for example, a direction facing the display screen is imaged from the display screen side.
  • the distance image according to the present embodiment is not limited to a distance image generated based on a stereo image.
  • the distance image according to the present embodiment may be an image generated by an arbitrary method capable of generating a distance image such as a ToF (Time of Flight) method or a structured light method.
  • a distance image sensor that generates a distance image by the ToF method or the like is arranged to generate a distance image corresponding to a direction facing the display screen from the display screen side, for example.
  • the processing related to the generation of the distance image according to the present embodiment includes, for example, a distance image sensor included in the information processing apparatus according to the present embodiment and an external distance that can be communicated with the information processing apparatus according to the present embodiment by wire or wireless. Generated by the image sensor.
  • Examples of the distance image sensor according to the present embodiment include a passive depth sensor (a depth sensor that generates a distance image based on a parallax of a stereo image), an active depth sensor (for example, a ToF type depth sensor, a structured sensor, and the like).
  • a light-type depth sensor a depth sensor that generates a distance image based on a parallax of a stereo image
  • an active depth sensor for example, a ToF type depth sensor, a structured sensor, and the like.
  • the processing related to the generation of the distance image according to the present embodiment is not limited to being performed by the distance image sensor.
  • the information processing apparatus according to the present embodiment is connected to the imaging device included in the information processing apparatus according to the present embodiment or the information processing apparatus according to the present embodiment. It is also possible to generate a distance image from a stereo image generated in an external imaging device capable of wireless communication.
  • the distance to the object indicated by the distance image according to the present embodiment corresponds to the distance from the distance image sensor to the object or the distance from the imaging device to the object related to the generation of the stereo image.
  • the distance image sensor is arranged so as to generate a distance image corresponding to the direction facing the display screen from the display screen side, and the imaging device for generating the stereo image is displayed on the display device. It arrange
  • the distance image according to the present embodiment is generated based on a stereo image in the distance image sensor will be mainly described as an example.
  • the information processing apparatus performs designation on the display screen based on the distance image, for example, by performing the following (1) point cloud generation processing and (2) designated position determination processing. Determine the position.
  • Point cloud generation process The information processing apparatus according to the present embodiment generates a point cloud from a distance image.
  • the point cloud is obtained by replacing observation points on a distance image represented by a two-dimensional image with a three-dimensional space, and a set of points represented by three-dimensional coordinates (hereinafter, “points”). Group ").
  • a point cloud is a representation of the surface of an object as a point cloud.
  • the information processing apparatus indicates a point (x, y, z) represented by a horizontal coordinate x, a vertical coordinate y, and a depth value z on the surface of an object included in a distance image.
  • a point cloud is generated from the distance image by expressing it with the point cloud that includes it.
  • the three-dimensional coordinates of each point in the point cloud are based on, for example, a set position such as a predetermined position on the display screen (for example, the center position of the display screen or the position on the left end of the display screen). Represented as:
  • the information processing apparatus Assuming that the horizontal angle of view of the sensor is “haov” and the vertical angle of view of the distance image sensor is “vaov”, the information processing apparatus according to the present embodiment generates a point cloud using, for example, the following equations 1 to 3. .
  • the information processing apparatus uses the following Expressions 1 to 3. A real-scale point cloud can be generated.
  • the point cloud generation processing according to the present embodiment is not limited to the generation of a point cloud by the calculations shown in Equation 1 to Equation 3.
  • the information processing apparatus according to the present embodiment may generate a point cloud using any technique that can generate a point cloud, for example.
  • the information processing apparatus performs principal component analysis (Principal Component Analysis) on the point cloud generated by the processing (1) (point cloud generation processing). Based on the analysis result of the component analysis, a vector corresponding to the object related to position designation is detected.
  • the object related to position specification according to the present embodiment include an arm portion of the operator and an arbitrary device that can be used by the operator for specifying the position, such as a pointing stick.
  • the information processing apparatus determines the designated position based on a vector corresponding to the detected position designation object.
  • the information processing apparatus includes, for example, a first principal component vector, which is a vector corresponding to an object related to position designation, starting from a predetermined position in a point group on which principal component analysis has been performed, and a display screen. Find the intersection with. Then, the information processing apparatus according to the present embodiment determines a position corresponding to the obtained intersection on the display screen as the designated position. Examples of the predetermined position in the point group on which the principal component analysis has been performed include the position of the center of gravity of the point group.
  • the information processing apparatus uses the vector of the first principal component obtained as a result of the principal component analysis as a vector corresponding to an object related to position designation.
  • the first principal component is represented by a straight line corresponding to the direction in which the variance is the largest in the point cloud constituting the point cloud.
  • the information processing apparatus for example, based on the comparison result between the principal component score of the first principal component and the principal component score of the second principal component obtained as a result of the principal component analysis.
  • the intersection of the principal component vector and the display screen is selectively obtained.
  • the principal component score of the first principal component is “the sum of values obtained by substituting the coordinates of each point constituting the point cloud with respect to a straight line corresponding to the direction in which the variance is greatest in the point cloud constituting the point cloud. ".
  • the second principal component is represented by a straight line corresponding to the second largest dispersion direction in the point cloud constituting the point cloud.
  • the principal component score of the second principal component is “a value obtained by substituting the coordinates of each point constituting the point cloud with respect to a straight line corresponding to the second largest variance in the point cloud constituting the point cloud. Is the sum of That is, the largest principal component score is the first principal component, and the second largest principal component is the second principal component.
  • the information processing apparatus for example, when the ratio between the principal component score of the first principal component and the principal component score of the second principal component is equal to or greater than a set threshold (or the ratio is If it is greater than the threshold value, the same shall apply hereinafter), the intersection of the first principal component vector and the display screen is obtained. Also, the information processing apparatus according to the present embodiment, for example, when the ratio of the principal component score of the first principal component and the principal component score of the second principal component is smaller than a set threshold (or the ratio) Is equal to or less than the threshold value. Hereinafter, the same shall apply), the intersection of the vector of the first principal component and the display screen is not obtained.
  • the threshold according to the present embodiment may be adjustable by a user operation or the like.
  • the information processing apparatus includes, for example, the process (1) (point cloud generation process) and the process (2) (designated position determination process) as the processes related to the information processing method according to the present embodiment. )I do.
  • the information processing apparatus according to the present embodiment is the main processing for the point cloud generated based on the distance image in the process (1) (point cloud generation process) in the process (2) (designated position determination process). Based on the analysis result of the component analysis, the position corresponding to the intersection of the first principal component vector and the display screen is determined as the designated position.
  • the information processing apparatus can determine the designated position on the display screen based on the distance image.
  • the information processing apparatus since the designated position on the display screen can be determined based on the distance image, the information processing apparatus according to the present embodiment can stably determine the designated position on the display screen.
  • the information processing apparatus since the designated position on the display screen is determined by a vector corresponding to the object relating to the position designation detected based on the analysis result of the principal component analysis performed on the point cloud, the information processing apparatus according to the present embodiment is The designated position on the display screen can be determined with high accuracy.
  • the designated position is determined based on the analysis result of the principal component analysis performed on the point cloud, for example, only the operator's arm (an example of an object related to position designation) is included in the distance image.
  • the information processing apparatus can determine the designated position on the display screen.
  • FIG. 1 is an explanatory diagram for explaining an example of processing related to the information processing method according to the present embodiment.
  • An example of the positional relationship with the image sensor (or imaging device) 12 is shown.
  • FIG. 1 shows an example in which the operator U is performing a pointing operation with a finger.
  • the information processing apparatus according to the present embodiment processes the distance image (or stereo image) acquired from the distance image sensor (or imaging device) 12 and determines the designated position P on the display screen of the display device 10.
  • the display device 10 may serve as the information processing apparatus according to the present embodiment
  • a distance image sensor (or imaging) Device) 12 may serve as the information processing apparatus according to the present embodiment.
  • the distance image sensor (or imaging device) 12 is installed at the lower part of the display device 10 and observes an operator facing the display screen side of the display device 10.
  • the positional relationship between the display device 10 and the distance image sensor (or imaging device) 12 is not limited to the example shown in FIG.
  • FIG. 2 is an explanatory diagram for explaining an example of processing related to the information processing method according to the present embodiment, and another example of the positional relationship between the display device 10 and the distance image sensor (or imaging device) 12. Show.
  • the distance image sensor (or imaging device) 12 can be arranged at any one of the lower, upper, right, and left sides of the display screen of the display device 10, for example, as shown in FIG.
  • the distance image sensor (or imaging device) 12 when the distance image sensor (or imaging device) 12 is arranged below the display screen, the distance image sensor (or imaging device) 12 is arranged on the floor as shown in FIGS. 1 and 2, for example. Therefore, there is an additional advantage that the arrangement is easy. Further, when the distance image sensor (or the imaging device) 12 is arranged above the display screen, for example, clothes worn by the operator due to gravity are given to the processing related to the information processing method according to the present embodiment. Since the influence is small and the arm is relatively flat from the fingertip, etc., the vector corresponding to the object relating to the position designation can be detected more stably.
  • the distance image sensor (or imaging device) 12 is, for example, within a “distance that the distance to the object indicated by the distance image can be regarded as a distance corresponding to the distance from the display screen to the object”, and the distance image sensor ( (Or imaging device) 12 can be arranged at a position where the distance to the display device 10 is longer.
  • the number of distance image sensors (or imaging devices) 12 to be installed and the positional relationship between the display device 10 and the distance image sensor (or imaging device) 12 are not limited to the example shown in FIG.
  • 3 and 4 are explanatory diagrams for explaining an example of processing according to the information processing method according to the present embodiment.
  • the number of distance image sensors (or imaging devices) 12 to be installed and the display device 10 are described.
  • 2 shows another example of the positional relationship between the distance image sensor 12 and the distance image sensor (or imaging device) 12.
  • FIG. 4 shows that a distance image sensor (or imaging device) 12A and a distance image sensor (or imaging device) 12B are arranged “in the lower part of the display screen and to the right of the display screen” in FIG. An example is shown.
  • the information processing apparatus when the specified position is determined by processing a plurality of distance images based on a plurality of distance image sensors (or imaging devices), the information processing apparatus according to the present embodiment In the process (1) (point cloud generation process), a point cloud is generated from each distance image.
  • the information processing apparatus when determining a designated position by processing a plurality of distance images based on a plurality of distance image sensors (or imaging devices), the information processing apparatus according to the present embodiment performs the process (2) (designated position determination). In the process), for example, a plurality of generated point clouds are merged. And the information processing apparatus which concerns on this embodiment determines the designated position corresponding to several distance images by processing the merged one point cloud.
  • the process (2) in the case of determining a designated position by processing a plurality of distance images based on a plurality of distance image sensors (or imaging devices) includes a plurality of point clouds.
  • the process is not limited to merging.
  • the information processing apparatus performs the process (2) (designated position determination process) on each of the generated plurality of point clouds, and obtains designated positions corresponding to the plurality of point clouds. decide. Then, the information processing apparatus according to the present embodiment corresponds to each of a plurality of point clouds, the x coordinate of the designated position on the display screen (coordinate corresponding to the horizontal component), and the y coordinate of the designated position on the display screen ( The coordinates corresponding to the vertical direction component) are merged to determine the designated position corresponding to the plurality of distance images.
  • the information processing apparatus calculates, for example, the average value of the x coordinate of the designated position on the display screen and the average value of the y coordinate of the designated position on the display screen corresponding to each of the plurality of point clouds.
  • the x coordinate of the designated position on the display screen and the y coordinate of the designated position on the display screen are merged.
  • the information processing apparatus when processing a plurality of distance images based on a plurality of distance image sensors (or imaging devices), the information processing apparatus according to the present embodiment is, for example, as described above.
  • the designated position is determined by performing the process.
  • FIG. 5 is a flowchart showing an example of processing related to the information processing method according to the present embodiment.
  • the process of step S104 corresponds to the process (1) (point cloud generation process)
  • the process of steps S106 to S112 is the process (2) (designated position determination process). This is an example.
  • FIG. 5 shows processing in a case where the information processing apparatus according to the present embodiment generates a distance image based on a stereo image captured by the imaging device. Note that when the information processing apparatus according to the present embodiment processes the distance image acquired from the distance image sensor, the information processing apparatus according to the present embodiment displays the distance image in the process of step S100 illustrated in FIG. The process is determined as a determination target, and the process of step S102 illustrated in FIG. 5 is not performed.
  • the information processing apparatus determines whether or not a stereo image has been acquired (S100). If it is not determined in step S100 that a stereo image has been acquired, the information processing apparatus according to the present embodiment does not proceed with the process.
  • the information processing apparatus If it is determined in step S100 that a stereo image has been acquired, the information processing apparatus according to the present embodiment generates a distance image based on the stereo image (S102).
  • the information processing apparatus according to the present embodiment generates a distance image from parallax in a stereo image.
  • the information processing apparatus according to the present embodiment generates a distance image using any technique that can generate a distance image from a stereo image, such as a method using the principle of triangulation.
  • FIG. 6 is an explanatory diagram illustrating an example of a stereo image according to the present embodiment, and illustrates an example of one image (an image corresponding to the right-eye image) constituting the stereo image.
  • FIG. 7 is an explanatory diagram showing an example of a distance image according to the present embodiment.
  • the information processing apparatus generates a point cloud from a distance image as shown in FIG. 7, for example (S104). For example, the information processing apparatus according to the present embodiment generates a point cloud by performing the calculations shown in Equation 1 to Equation 3 for each pixel on the distance image.
  • the distance image indicates the absolute distance from the distance image sensor, that is, when the depth information on the real scale is obtained from the distance image and the angle of view of the distance image sensor is known
  • this embodiment is used.
  • Such an information processing apparatus can generate a real-scale point cloud according to Equation 1 to Equation 3.
  • a real-scale point cloud is generated, so that a real-scale three-dimensional space can be reproduced.
  • FIG. 8 is an explanatory diagram showing an example of the point cloud according to the present embodiment, and shows an example of the point cloud generated from the distance image shown in FIG.
  • the information processing apparatus extracts a point cloud close to the display screen from the point cloud (S106).
  • a point having the smallest depth value z out of a group of points constituting the point cloud may be indicated as a point closest to the display screen (hereinafter, “protrusion”). ) To detect. Then, the information processing apparatus according to the present embodiment extracts a point group included in a sphere with a predetermined radius set around the point closest to the display screen.
  • the predetermined radius may be a fixed value set in advance or may be a variable value that can be adjusted by a user or the like. Note that the information processing apparatus according to the present embodiment can also extract a point group included in a space having a predetermined shape that includes a point closest to the display screen.
  • the information processing apparatus performs principal component analysis on the extracted point group (S108).
  • the information processing apparatus segments the extracted point group and divides it into a plurality of point groups.
  • the information processing apparatus according to the present embodiment uses, for example, “Euclidean Cluster” of a 3D point cloud processing library (Point Cloud Library; hereinafter referred to as “PCL”) to extract a plurality of point clouds. Divide into Then, the information processing apparatus according to the present embodiment performs principal component analysis on the point group having the largest number of contained points among the divided point groups.
  • PCL 3D point cloud processing library
  • the point cloud corresponding to an object other than the object related to position designation is used. It becomes possible to eliminate the influence on the result of the principal component analysis. Therefore, after segmenting the extracted point cloud, the information processing apparatus according to the present embodiment is determined by performing principal component analysis on a part of the point cloud included in the extracted point cloud. The accuracy of the designated position on the display screen can be further improved.
  • the information processing apparatus When the principal component analysis is performed in step S108, the information processing apparatus according to the present embodiment performs a ratio between the principal component score of the first principal component and the principal component score of the second principal component (for example, “first principal component score”). It is determined whether or not “principal component score / principal component score of second principal component”) is equal to or greater than a predetermined threshold (S110).
  • a predetermined threshold such as “5” may be used as the predetermined threshold.
  • the predetermined threshold value according to the present embodiment may be a fixed value set in advance or a variable value that can be adjusted by a user or the like.
  • step S110 when it is determined in step S110 that the ratio between the principal component score of the first principal component and the principal component score of the second principal component is equal to or greater than a predetermined threshold, the point group in which the principal component analysis is performed This corresponds to determining that the object corresponding to is a bar-like object (an example of an object related to position designation).
  • FIG. 9 is an explanatory diagram for explaining processing related to the information processing method according to the present embodiment, and shows an example of the first principal component and the second principal component in the point cloud shown in FIG.
  • a shown in FIG. 9 shows an example of a straight line corresponding to the first principal component
  • B shown in FIG. 9 shows an example of a straight line corresponding to the second principal component.
  • step S110 If it is not determined in step S110 that the ratio between the principal component score of the first principal component and the principal component score of the second principal component is greater than or equal to a predetermined threshold, the information processing apparatus according to the present embodiment The process is terminated without determining.
  • step S110 If it is determined in step S110 that the ratio between the principal component score of the first principal component and the principal component score of the second principal component is equal to or greater than a predetermined threshold, the information processing apparatus according to the present embodiment Then, the intersection of the first principal component vector and the display screen is obtained, and the position corresponding to the obtained intersection on the display screen is determined as the designated position (S112).
  • the information processing apparatus according to the present embodiment determines, for example, the intersection of the first principal component vector starting from a predetermined position in the point cloud, such as the center of gravity of the point cloud, and the display screen as the designated position.
  • the predetermined position in the point group may be set in advance or may be adjustable by a user or the like.
  • FIG. 10 is an explanatory diagram for explaining processing according to the information processing method according to the present embodiment. As shown in FIG. 10, the intersection of the first principal component vector V and the display screen of the display device 10 is determined as the designated position P.
  • the information processing apparatus determines the designated position on the display screen based on the distance image, for example, by performing the process shown in FIG. 5 as the process related to the information processing method according to the present embodiment.
  • the information processing apparatus may repeat the processes in steps S106 to S112 for the point cloud generated in step S104 in FIG.
  • the information processing apparatus when the principal component analysis is performed in step S108 of FIG. 5, for example, the information processing apparatus according to the present embodiment performs principal component analysis on the point cloud generated in step S104 of FIG. It is determined whether or not the number of times satisfying the condition for a predetermined number of times such as six is satisfied.
  • the condition relating to the predetermined number of times include that the number of times that the principal component analysis has been performed is not less than the predetermined number, and that the number of times that the principal component analysis has been performed is greater than the predetermined number.
  • the condition relating to the predetermined number of times may be a fixed condition set in advance, or may be a condition that can be appropriately changed by a user or the like.
  • the information processing apparatus ends the process without repeating the processes of steps S106 to S112.
  • the information processing apparatus can It is possible to determine a plurality of designated positions corresponding to pointing with both hands or pointing with a plurality of operators.
  • FIG. 11 is an explanatory diagram for explaining an example of processing related to the information processing method according to the present embodiment.
  • FIG. 11A to FIG. 11I show processing related to the information processing method according to the present embodiment in time series.
  • a in FIG. 11 to C in FIG. 11 correspond to the process shown in step S104 shown in FIG. 5, that is, the process (1) (point cloud generation process).
  • D in FIG. 11 to I in FIG. 11 correspond to the process in step S112 shown in FIG. 5, that is, the process (2) (designated position determination process).
  • FIG. 11A shows an example of a point cloud generated based on the distance image.
  • the information processing apparatus according to the present embodiment performs processing on the point group illustrated in A of FIG. 11.
  • the information processing apparatus performs a filter process on the point cloud shown in A of FIG.
  • the information processing apparatus includes, for example, a PCL “Pass Through Filter” (a filter that deletes an invalid point cloud in processing such as an occlusion depth of 0), and a PCL “Voxel Grid Filter” (15 [mm ] A filter for downsampling that is replaced with a representative point in the space) and “Outlier Removal Filter” (a filter that removes outliers (dust) scattered in the space) are used.
  • a PCL “Pass Through Filter” a filter that deletes an invalid point cloud in processing such as an occlusion depth of 0
  • PCL “Voxel Grid Filter” 15 [mm ]
  • “Outlier Removal Filter” a filter that removes outliers (dust) scattered in the space
  • the filter used by the information processing apparatus according to the present embodiment for the filter processing is not limited
  • FIG. 11 shows an example of the result of the filtering process performed on the point group shown in A of FIG.
  • the information processing apparatus multiplies the point group after the filter processing shown in FIG. 11B by a rotation matrix (movement matrix) to move the point group.
  • the information processing apparatus according to the present embodiment moves the point group so as to correspond to a case where observation is performed from a predetermined position on the display screen such as the center position of the display screen.
  • the information processing apparatus according to the present embodiment performs rotation in the pitch direction and movement in the vertical direction.
  • C shown in FIG. 11 shows a conceptual diagram when moving the point group after the filter processing shown in B of FIG.
  • the information processing apparatus can make the process related to the detection of the vector corresponding to the object related to the position specification a simpler process. .
  • the information processing apparatus performs, for example, the processing shown with reference to FIGS. 11A to 11C in step S104 shown in FIG.
  • the information processing apparatus detects a point having the smallest depth value z as a tip from all the points constituting the point group, as shown in D of FIG.
  • the process shown in FIG. 11D corresponds to step S106 shown in FIG.
  • the information processing apparatus has a radius of 300 [mm] (with a predetermined radius) centered on a point (protrusion) detected in the process shown in D of FIG. Extract points that are included in the sphere of Example).
  • FIG. 11E shows an example in which a point group consisting of a plurality of points is extracted.
  • the information processing apparatus segments the point group extracted by the process of E of FIG. 11 and divides it into a plurality of point groups as shown in F of FIG.
  • the information processing apparatus divides the extracted point group into a plurality of point groups using, for example, “Euclidean Cluster” of PCL.
  • the point group having the largest number of points included in the point group divided in F of FIG. 11 is included in the point group corresponding to the object related to position designation. It is determined whether the point group includes adjacent points.
  • G in FIG. 11 shows a conceptual diagram in a case where the point group having the largest number of points is a point group including points adjacent to the points included in the point group corresponding to the position designation object.
  • the point group having the largest number of included points is determined to be a point group including the adjacent points.
  • the determination method in the process according to G in FIG. 11 is not limited to the above-described method, and the information processing apparatus according to the present embodiment has, for example, a point group having the largest number of points included as an object related to position designation. It is also possible to perform an arbitrary process that can determine whether or not it is connected to a point cloud corresponding to the.
  • the point group having the largest number of points included in the point group divided in F of FIG. 11 is adjacent to the point included in the point group corresponding to the object related to position designation.
  • the information processing apparatus according to the present embodiment performs principal component analysis on the point group having the largest number of points included. Then, the information processing apparatus according to the present embodiment selectively obtains the position of the intersection point between the first principal component vector and the display screen, which corresponds to the vector corresponding to the object related to position designation.
  • H of FIG. 11 shows a conceptual diagram in a case where the principal component analysis is performed on the point group having the largest number of contained points among the divided point groups in F of FIG. 11.
  • the point group having the largest number of points included in the point group divided in F of FIG. 11 is included in the point group corresponding to the object related to position designation. If it is not determined that the point group includes adjacent points, the information processing apparatus according to the present embodiment does not perform principal component analysis on the point group having the largest number of included points. Then, the information processing apparatus according to the present embodiment excludes the point group having the largest number of included points from the processing target.
  • FIG. 11I shows a conceptual diagram when the point group having the largest number of contained points among the divided point groups in F of FIG. 11 is excluded from the processing target.
  • the information processing apparatus for example, rewrites the depth value z of each point constituting the point group having the largest number of points included in the divided point group to “9999999” or the like, By deleting the point group having the largest number of included points, the point group having the largest number of included points is removed from the processing target.
  • the information processing apparatus performs the processing shown with reference to D in FIG. 11 to I in FIG. 11 in steps S108 to S112 shown in FIG.
  • the information processing apparatus determines whether the number of times that the principal component analysis is performed on the generated point cloud illustrated in A of FIG. 11 satisfies the condition regarding the predetermined number of times. May be. If it is not determined that the condition regarding the predetermined number of times is satisfied, the information processing apparatus according to the present embodiment removes the point group on which the principal component analysis has been performed from the processing target, and again performs the processing from D in FIG. (Corresponding to the processing from step S106 in FIG. 5) is repeated.
  • the information processing apparatus is, for example, the process (1) described above as the process related to the information processing method according to this embodiment.
  • the process point cloud generation process
  • the process (2) designated position determination process
  • the process which concerns on the information processing method which concerns on this embodiment is not restricted to the process (point cloud production
  • the display screen determined by a sensory factor for each user who is an operator. There may be a deviation between the position and the position expected by the operator.
  • the information processing apparatus performs (3) a process for determining an offset amount for adjusting the designated position (hereinafter, “offset amount determination process”) as a process related to the information processing method according to the present embodiment. .)
  • the information processing apparatus is determined by, for example, a predetermined position on the display screen and the process (2) (specified position determination process) described above.
  • the offset amount is determined based on the designated position.
  • the information processing apparatus for example, when the operator designates a specific position on the display screen (a position of a specific point on the display screen or a position in a specific area).
  • the difference between the determined designated position and the position corresponding to the specific position is obtained for each of the x coordinate (coordinate corresponding to the horizontal direction component) and the y coordinate (coordinate corresponding to the vertical direction component).
  • the information processing apparatus determines the obtained x-coordinate difference as an offset amount for adjusting the x-coordinate of the designated position on the display screen, and determines the obtained y-coordinate difference. Then, it is determined as an offset amount for adjusting the y coordinate of the designated position on the display screen.
  • the offset amount according to this embodiment is not limited to the above.
  • the offset amount according to the present embodiment may be an angle for adjusting the Yaw angle of the first principal component vector in the principal component analysis and an angle for adjusting the Pitch angle of the first principal component vector in the principal component analysis. Good.
  • the information processing apparatus for example, “a first principal component vector obtained as a result of principal component analysis (a vector corresponding to an object related to position designation)” and “a predetermined position corresponding to an object related to position designation”.
  • the angle for adjusting the Yaw angle and the angle for adjusting the Pitch angle are determined as offset amounts based on the difference from “a vector in a predetermined position direction on the display screen”.
  • examples of the predetermined position corresponding to the object related to position designation include the barycentric position of the point group corresponding to the object related to position designation.
  • the information processing apparatus includes an offset amount determination process according to the first example shown in (3-1) above, and an offset amount determination process according to the second example shown in (3-2) above. To determine the offset amount.
  • the information processing apparatus When the offset amount is determined, the information processing apparatus according to the present embodiment relates to the determined offset amount, for example, a storage unit (described later) included in the information processing apparatus according to the present embodiment, or according to the present embodiment. Recording is performed on an external recording medium connected to the information processing apparatus.
  • a storage unit described later
  • the information processing apparatus When the offset amount is determined, the information processing apparatus according to the present embodiment records, for example, data indicating the operator (for example, an ID indicating the operator) and the determined offset amount in association with each other. It may be recorded on a medium.
  • the information processing apparatus selects an operator that associates an offset amount with a biometric recognition such as “face recognition and voice recognition”, an operator recognized by “ID and password”, and the like. Identify the data to show.
  • the processing related to the operator's recognition may be performed by the information processing apparatus according to the present embodiment, or may be performed by an external apparatus of the information processing apparatus according to the present embodiment.
  • the information processing apparatus when the offset amount is determined, the information processing apparatus according to the present embodiment, for example, the data indicating the hand related to the operation of the operator (for example, ID indicating the right hand or the left hand) and the determined offset amount May be recorded on the recording medium in association with each other.
  • the information processing apparatus for example, an operator that associates an offset amount with a hand recognition result obtained by image processing or the like on a captured image in which a direction opposite to the display screen is captured from the display screen side.
  • Data indicating a hand related to the operation is specified.
  • the process related to the recognition of the hand related to the operation by the operator may be performed by the information processing apparatus according to the present embodiment, or may be performed by an external apparatus of the information processing apparatus according to the present embodiment.
  • the information processing apparatus when the offset amount is determined, the information processing apparatus according to the present embodiment records, for example, the data indicating the operator, the data indicating the hand related to the operation of the operator, and the determined offset amount in association with each other. It may be recorded on a medium.
  • the offset amount determination process according to the present embodiment includes the offset amount determination process according to the first example shown in (3-1) and the offset amount determination process according to the second example shown in (3-2). It is not limited to processing.
  • the information processing apparatus may selectively determine the offset amount for each operator based on the recognition result of the operator.
  • the information processing apparatus determines the offset amount when, for example, the offset amount is not determined for the operator recognized by biometric recognition or the like. Further, the information processing apparatus according to the present embodiment does not determine the offset amount when, for example, the offset amount is determined for the operator recognized by biometric recognition or the like. Even when the offset amount is determined for the recognized operator, the information processing apparatus according to the present embodiment is based on, for example, a user operation for performing redetermination of the offset amount. It is also possible to determine the offset amount.
  • the information processing apparatus adjusts the specified position by the determined amount of offset in the process (2) (specified position determination process), and specifies Determine the position.
  • the information processing apparatus when the amount of offset is determined for each operator, the information processing apparatus according to the present embodiment, for example, the amount of offset corresponding to the recognized operator based on the recognition result of the operator. Use to adjust the specified position. Further, when the amount of offset is determined for each hand related to the operation of the operator, the information processing apparatus according to the present embodiment is recognized based on, for example, the recognition result of the hand related to the operation of the operator. The designated position is adjusted by the amount of obset corresponding to the hand related to the operation of the operator. Further, when the amount of offset is determined for each operator and each operation related to the operation of the operator, the information processing apparatus according to the present embodiment, for example, the recognition result of the operator and the operation related to the operation of the operator. Based on the recognition result, the designated position can be adjusted by the amount of offset corresponding to the recognized operator and the hand related to the recognized operator's operation.
  • the information processing apparatus determines a designated position after adjusting a vector corresponding to an object related to position designation according to an offset amount.
  • the information processing apparatus performs an offset amount determination process, and determines a specified position by adjusting a specified position according to the determined amount of offset in the process (2) (specified position determination process).
  • the information processing apparatus performs an offset amount determination process, and determines the specified position by adjusting the specified position according to the determined amount of offset in the process (2) (specified position determination process). By doing so, it is possible to determine the designated position with higher accuracy for the operator.
  • FIG. 12 is a flowchart illustrating an example of the offset amount determination process according to the present embodiment.
  • the information processing apparatus displays a calibration object on the display screen (S200).
  • the calibration object according to the present embodiment is an object for allowing the operator to specify a specific position on the display screen.
  • Examples of the specific position according to the present embodiment include a set position (for example, the center position of the calibration object) included in the calibration object.
  • FIG. 13 is an explanatory diagram illustrating an example of a display screen on which calibration objects according to the present embodiment are displayed.
  • a shown in FIG. 13 is an example of a calibration object according to the present embodiment, and FIG. 13 shows a login button as the calibration object according to the present embodiment.
  • the login operation (operation start action) and the offset amount determination processing according to the present embodiment are performed simultaneously.
  • the information processing apparatus performs the offset amount determination process according to the present embodiment by performing the login operation and the offset amount determination process according to the present embodiment at the same time.
  • the offset amount can be determined without causing the user to perform an operation only for the purpose. Therefore, as shown in FIG. 13, by performing the login operation and the offset amount determination process according to the present embodiment at the same time, the offset amount can be determined while reducing the load on the user.
  • the calibration object according to the present embodiment is not limited to the login button, and the display screen on which the calibration object according to the present embodiment is displayed is not limited to the example illustrated in FIG. Needless to say.
  • the information processing apparatus acquires a designated position on the display screen (S202).
  • the information processing apparatus acquires the designated position by performing the process (2) (designated position determination process), for example.
  • the information processing apparatus determines whether a position near the object for calibration is designated (S204).
  • the information processing apparatus for example, when the distance between the set position in the calibration object and the designated position acquired in step S204 is equal to or less than the set threshold (or the distance is If the value is smaller than the threshold value, it is determined that a position near the object for calibration is designated.
  • step S204 if it is not determined that the position near the object for calibration is specified, the information processing apparatus according to the present embodiment repeats the processing from step S202.
  • step S204 If it is determined in step S204 that a position near the object for calibration is designated, the information processing apparatus according to the present embodiment designates a position near the object for calibration. It is determined whether or not the state continues for a set fixed time (S206).
  • step S206 If it is not determined in step S206 that it has continued for a certain period of time, the information processing apparatus according to the present embodiment repeats the processing from step S202.
  • the information processing apparatus determines an offset amount (S208).
  • the information processing apparatus includes an offset amount determination process according to the first example shown in (3-1) above, and an offset amount determination process according to the second example shown in (3-2) above.
  • the offset amount is determined by obtaining the offset amount.
  • the information processing apparatus determines the offset amount by performing, for example, the processing illustrated in FIG. 12 as the offset amount determination processing according to the present embodiment.
  • the offset amount determination processing according to the present embodiment is not limited to the example shown in FIG.
  • the information processing apparatus according to the present embodiment performs processing in steps S200 to S208 in FIG. 12 (or the calibration object in FIG. 13) based on the recognition result of the operator recognized by biometric recognition or the like. As shown, in the case of an object shared with other processing such as a login button, it is possible not to perform the processing of S202 to S208.
  • FIG. 14 is a block diagram illustrating an example of the configuration of the information processing apparatus 100 according to the present embodiment.
  • the information processing apparatus 100 includes, for example, a communication unit 102 and a control unit 104.
  • the information processing apparatus 100 includes, for example, a ROM (Read Only Memory, not shown), a RAM (Random Access Memory, not shown), a storage unit (not shown), and a user-operable operation unit (see FIG. And a display unit (not shown) for displaying various screens on the display screen.
  • the information processing apparatus 100 connects the above constituent elements by, for example, a bus as a data transmission path.
  • a ROM (not shown) stores control data such as a program used by the control unit 104 and calculation parameters.
  • a RAM (not shown) temporarily stores a program executed by the control unit 104.
  • the storage unit (not shown) is a storage unit included in the information processing apparatus 100 and stores, for example, data related to the information processing method according to the present embodiment such as data indicating an offset amount, and various data such as applications.
  • examples of the storage unit (not shown) include a magnetic recording medium such as a hard disk, and a non-volatile memory such as a flash memory. Further, the storage unit (not shown) may be detachable from the information processing apparatus 100.
  • the operation unit (not shown), an operation input device to be described later can be cited.
  • the display part (not shown), the display device mentioned later is mentioned.
  • the display screen to be operated according to the present embodiment may be a display screen of a display unit (not shown) or a display screen of a display device external to the information processing apparatus 100.
  • FIG. 15 is an explanatory diagram illustrating an example of a hardware configuration of the information processing apparatus 100 according to the present embodiment.
  • the information processing apparatus 100 includes, for example, an MPU 150, a ROM 152, a RAM 154, a recording medium 156, an input / output interface 158, an operation input device 160, a display device 162, and a communication interface 164.
  • the information processing apparatus 100 connects each component with a bus 166 as a data transmission path, for example.
  • the MPU 150 includes, for example, a processor configured with an arithmetic circuit such as an MPU (Micro Processing Unit), various processing circuits, and the like, and functions as the control unit 104 that controls the entire information processing apparatus 100.
  • the MPU 150 serves as, for example, a distance image generation unit 110, a point cloud generation unit 112, a position determination unit 114, and an offset amount determination unit 116, which will be described later.
  • the ROM 152 stores programs used by the MPU 150, control data such as calculation parameters, and the like.
  • the RAM 154 temporarily stores a program executed by the MPU 150, for example.
  • the recording medium 156 functions as a storage unit (not shown), and stores various data such as data related to the information processing method according to the present embodiment, such as data indicating an offset amount, and applications.
  • examples of the recording medium 156 include a magnetic recording medium such as a hard disk and a non-volatile memory such as a flash memory. Further, the recording medium 156 may be detachable from the information processing apparatus 100.
  • the input / output interface 158 connects, for example, the operation input device 160 and the display device 162.
  • the operation input device 160 functions as an operation unit (not shown)
  • the display device 162 functions as a display unit (not shown).
  • examples of the input / output interface 158 include a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (High-Definition Multimedia Interface) (registered trademark) terminal, and various processing circuits. .
  • the operation input device 160 is provided on the information processing apparatus 100, for example, and is connected to the input / output interface 158 inside the information processing apparatus 100.
  • Examples of the operation input device 160 include a button, a direction key, a rotary selector such as a jog dial, or a combination thereof.
  • the display device 162 is provided on the information processing apparatus 100, for example, and is connected to the input / output interface 158 inside the information processing apparatus 100.
  • Examples of the display device 162 include a liquid crystal display (Liquid Crystal Display), an organic EL display (Organic Electro-Luminescence Display, or an OLED display (Organic Light Emitting Diode Display)), and the like.
  • the input / output interface 158 can be connected to an external device such as an external operation input device (for example, a keyboard or a mouse) as an external device of the information processing apparatus 100 or an external display device.
  • an external operation input device for example, a keyboard or a mouse
  • the display device 162 may be a device capable of display and user operation, such as a touch screen.
  • the communication interface 164 is a communication unit included in the information processing apparatus 100, and via a network (or directly), an external device such as an external distance image sensor, an external imaging device, or an external display device, or an external device It functions as a communication unit 102 for performing wireless or wired communication with the apparatus.
  • an external device such as an external distance image sensor, an external imaging device, or an external display device, or an external device It functions as a communication unit 102 for performing wireless or wired communication with the apparatus.
  • the communication interface 164 for example, a communication antenna and an RF (Radio Frequency) circuit (wireless communication), an IEEE 802.15.1 port and a transmission / reception circuit (wireless communication), an IEEE 802.11 port and a transmission / reception circuit (wireless communication). ), Or a LAN (Local Area Network) terminal and a transmission / reception circuit (wired communication).
  • RF Radio Frequency
  • a wired network such as a LAN or a WAN (Wide Area Network), a wireless LAN (WLAN: Wireless Local Area Network) or a wireless WAN via a base station (WWAN: Wireless Wide Area Area).
  • a communication protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol).
  • the information processing apparatus 100 performs processing related to the information processing method according to the present embodiment, for example, with the configuration illustrated in FIG. Note that the hardware configuration of the information processing apparatus 100 according to the present embodiment is not limited to the configuration illustrated in FIG.
  • the information processing apparatus 100 may further include a distance image sensor such as a passive depth sensor or an active depth sensor.
  • a distance image sensor such as a passive depth sensor or an active depth sensor.
  • the information processing apparatus 100 can process the distance image generated by the distance image sensor.
  • the information processing apparatus 100 may further include, for example, an imaging device that generates a stereo image.
  • the imaging device includes a lens / imaging device and a signal processing circuit.
  • the lens / imaging device includes, for example, an optical lens and an image sensor using a plurality of imaging devices such as CMOS (Complementary Metal Oxide Semiconductor).
  • the signal processing circuit includes, for example, an AGC (Automatic Gain Control) circuit and an ADC (Analog to Digital Converter), and converts an analog signal generated by the image sensor into a digital signal (image data).
  • the signal processing circuit may perform various signal processing such as, for example, White Balance correction processing, color tone correction processing, gamma correction processing, YCbCr conversion processing, and edge enhancement processing.
  • the information processing apparatus 100 may not include the communication interface 164 when communicating with the external apparatus via, for example, a connected external communication device. Further, the information processing apparatus 100 may be configured without the recording medium 156, the operation input device 160, and the display device 162.
  • the communication unit 102 is a communication unit included in the information processing apparatus 100, and communicates with an external device such as an external distance image sensor or an external device via a network (or directly) by wireless or wired. .
  • the communication of the communication unit 102 is controlled by the control unit 104, for example.
  • examples of the communication unit 102 include a communication antenna and an RF circuit, a LAN terminal, and a transmission / reception circuit, but the configuration of the communication unit 102 is not limited to the above.
  • the communication unit 102 can take a configuration corresponding to an arbitrary standard capable of performing communication, such as a USB terminal and a transmission / reception circuit, or an arbitrary configuration capable of communicating with an external device via a network.
  • the control unit 104 is configured by, for example, an MPU and plays a role of controlling the entire information processing apparatus 100.
  • the control unit 104 includes, for example, a distance image generation unit 110, a point cloud generation unit 112, a position determination unit 114, and an offset amount determination unit 116, and performs processing related to the information processing method according to the present embodiment. Play a leading role.
  • the control unit 104 may further include, for example, a communication control unit (not shown) that controls communication in the communication unit 102.
  • the distance image generation unit 110 generates a distance image from a stereo image generated by imaging the direction facing the display screen from the display screen side.
  • the distance image generation unit 110 generates a distance image by performing processing related to an arbitrary technique capable of generating a distance image from a stereo image, such as a method using the principle of triangulation.
  • the distance image generation unit 110 processes, for example, a stereo image transmitted from an external imaging device arranged so as to image the direction facing the display screen from the display screen side and received by the communication unit 102.
  • the information processing apparatus 100 includes an imaging unit (not shown) having an imaging device that is arranged so that the direction facing the display screen from the display screen side is captured
  • the distance image The generation unit 110 processes a stereo image generated by imaging by an imaging unit (not shown).
  • the point cloud generation unit 112 plays a role of leading the process (1) (point cloud generation process), and generates a point cloud from the distance image. Further, the point cloud generation unit 112 may further perform the processes shown in B of FIG. 11 and C of FIG.
  • the point cloud generation unit 112 When the distance image generation unit 110 generates a distance image, the point cloud generation unit 112 generates a point cloud from the distance image transmitted from the distance image generation unit 110, for example.
  • the communication unit 102 receives a distance image transmitted from an external distance image sensor, the point cloud generation unit 112 generates a point cloud from the distance image received by the communication unit 102, for example.
  • the position determination unit 114 plays a role of leading the process (2) (designated position determination process).
  • the position determination unit 114 performs principal component analysis on the point cloud generated by the point cloud generation unit 112, detects a vector corresponding to an object related to position specification based on the analysis result, and specifies the designation specified on the display screen Determine the position.
  • the position determination unit 114 determines the designated position by performing, for example, the processing in steps S106 to S112 in FIG. 5 or the processing shown in D in FIG. 11 to I in FIG.
  • the offset amount determination unit 116 plays a leading role in performing the process (3) (offset amount determination process), and determines the offset amount.
  • the offset amount determination unit 116 performs, for example, the offset amount determination processing according to the first example shown in (3-1) above, the offset amount determination processing according to the second example shown in (3-2) above, and the like. .
  • the position determination unit 114 adjusts the specified position according to the determined offset amount, and then determines the specified position.
  • the control unit 104 includes, for example, a distance image generation unit 110, a point cloud generation unit 112, a position determination unit 114, and an offset amount determination unit 116, thereby leading the processing related to the information processing method according to the present embodiment. Do.
  • the information processing apparatus 100 has, for example, the configuration shown in FIG. 14, processing (for example, processing (1) (point cloud generation processing) to processing (3) (offset amount) according to the information processing method according to the present embodiment. Perform decision processing)).
  • the information processing apparatus 100 can determine the designated position on the display screen based on the distance image, for example, with the configuration shown in FIG.
  • the information processing apparatus 100 can exhibit the effects exhibited by performing the processing related to the information processing method according to the present embodiment as described above, for example.
  • the information processing apparatus may not include the distance image generation unit 110 illustrated in FIG. Further, for example, the information processing apparatus according to the present embodiment may be configured not to include the offset amount determination unit 116 illustrated in FIG.
  • the information processing apparatus according to the present embodiment performs the process (1) (points) Cloud generation processing) and the above processing (2) (designated position determination processing) can be performed. Therefore, even when the above configuration is adopted, the information processing apparatus according to the present embodiment can determine the designated position on the display screen based on the distance image.
  • the information processing apparatus includes, for example, one or more of the distance image generation unit 110, the point cloud generation unit 112, the position determination unit 114, and the offset amount determination unit 116 illustrated in FIG.
  • the controller 104 can be provided separately (for example, realized by a separate processing circuit).
  • the information processing apparatus includes a detection unit (not illustrated) that generates a distance image according to the present embodiment and a stereo image generated by capturing a direction facing the display screen from the display screen side. May be further provided.
  • the detection unit (not shown) generates, for example, a distance image sensor that generates a distance image according to the present embodiment, or a stereo image that is generated by imaging the direction facing the display screen from the display screen side. Having an imaging device.
  • the point cloud generation unit 112 is based on a distance image generated by the detection unit (not shown) or a stereo image generated by the detection unit (not shown).
  • the distance image generated by 110 is processed.
  • the processing apparatus may not include the communication unit 102.
  • the information processing apparatus has been described as the present embodiment, but the present embodiment is not limited to such a form.
  • a computer such as a PC (Personal Computer) or a server, a device having a distance image sensor, a display device, a television receiver, a communication device such as a mobile phone or a smartphone, a tablet device, video / music
  • the present invention can be applied to various devices such as a playback device (or video / music recording / playback device) and a game machine.
  • the present embodiment can be applied to, for example, a processing IC (Integrated Circuit) that can be incorporated in the above devices.
  • a processing IC Integrated Circuit
  • the present embodiment may be realized by a system including a plurality of devices on the premise of connection to a network (or communication between devices) such as cloud computing. That is, the information processing apparatus according to this embodiment described above can be realized as an information processing system including a plurality of apparatuses, for example.
  • a program for causing a computer to function as the information processing apparatus according to the present embodiment for example, “the processing of (1) (point cloud generation processing) and the processing of (2) (designated position determination processing)”,
  • a program capable of executing a process related to the information processing method according to the present embodiment such as “the process of (1) (point cloud generation process) to the process of (3) (offset amount determination process)”.
  • the designated position on the display screen can be determined based on the distance image by being executed by a processor or the like in the computer.
  • an effect produced by the processing related to the information processing method according to the above-described embodiment by executing a program for causing the computer to function as the information processing apparatus according to the present embodiment by a processor or the like in the computer. Can be played.
  • a program for causing a computer to function as the information processing apparatus according to the present embodiment is provided.
  • the present embodiment further includes a recording in which the program is stored.
  • a medium can also be provided.
  • a point cloud generation unit that generates a point cloud from a distance image representing a distance corresponding to the distance from the display screen to the object;
  • a position determination unit that performs principal component analysis on the generated point cloud, detects a vector corresponding to an object related to position specification based on the analysis result, and determines a specified position specified on the display screen;
  • An information processing apparatus comprising: (2) The position determination unit Based on the comparison result between the principal component score of the first principal component and the principal component score of the second principal component obtained as a result of the principal component analysis, the first principal component of the vector corresponding to the object relating to the position designation
  • the information processing apparatus according to (1), wherein an intersection between the vector and the display screen is selectively obtained, and the obtained intersection is determined as the designated position.
  • the position determination unit extracts a point group including a point closest to the display screen from the point cloud, and performs principal component analysis on the extracted point group.
  • the information processing apparatus according to (3) wherein the position determination unit extracts a point group included in a sphere having a predetermined radius set with a point closest to the display screen as a center.
  • the position determination unit Segment the extracted point cloud and divide it into multiple point clouds, The information processing apparatus according to (4), wherein a principal component analysis is performed on a point group having the largest number of contained points among the divided point groups.
  • the point group having the largest number of included points is a point group including a point adjacent to a point included in the point group corresponding to the object related to the position designation, Do not perform principal component analysis for the point group with the largest number of included points, The information processing apparatus according to (5), wherein the point group having the largest number of contained points is excluded from the processing target.
  • the position determination unit When the principal component analysis is performed, it is determined whether the number of times the principal component analysis is performed on the point cloud satisfies a condition regarding the predetermined number of times set, If it is not determined that the condition regarding the predetermined number of times is satisfied, the point cloud on which the principal component analysis is performed is excluded from the processing target, and the point cloud including the point closest to the display screen is extracted again from the point cloud. Then, the information processing apparatus according to any one of (3) to (6), wherein principal component analysis is performed on the extracted point group.
  • An offset amount determining unit that determines an offset amount for adjusting the designated position;
  • the position determination unit determines the specified position after adjusting the specified position according to the determined amount of offset when the offset amount is determined, any one of (1) to (7)
  • the information processing apparatus according to one.
  • the offset amount determination unit is a vector corresponding to the object related to the position designation, the vector of the first principal component obtained as a result of the principal component analysis, and a predetermined position corresponding to the object related to the position designation on the display screen.
  • the information processing apparatus wherein the offset amount is determined based on a difference from a vector in a predetermined position direction.
  • the offset amount determination unit selectively determines the offset amount for each operator based on a recognition result of the operator.
  • a distance image generating unit that generates the distance image from a stereo image generated by imaging a direction facing the display screen from the display screen side;
  • the information processing apparatus according to any one of (1) to (11), wherein the point cloud generation unit generates a point cloud from the distance image generated from the stereo image.
  • the point cloud generation unit generates a point cloud on a real scale.
  • Display device 12 12A, 12B Distance image sensor (or imaging device) DESCRIPTION OF SYMBOLS 100 Information processing apparatus 102 Communication part 104 Control part 110 Distance image generation part 112 Point cloud generation part 114 Position determination part 116 Offset amount determination part

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するポイントクラウド生成部と、生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、表示画面において指定された指定位置を決定する位置決定部と、を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
 近年、例えば、操作者のジェスチャに基づく機器の操作に係る技術が開発されている。操作者のジェスチャに基づく機器の操作に係る技術としては、例えば下記の特許文献1に記載の技術が挙げられる。
特開2013-205983号公報
 例えば特許文献1に記載の技術では、学習された人体の三次元モデルデータに基づいて、操作者の手のジェスチャが認識される。よって、例えば特許文献1に記載の技術を用いることによって、操作者のジェスチャによる、表示画面において位置を指定する操作(以下、「ポインティング操作」と示す場合がある。)を実現することができる可能性はある。
 しかしながら、学習された人体の三次元モデルデータによりジェスチャの認識が行われる場合には、例えば機械学習の精度などに起因して、操作者が意図するポインティング操作を安定して実現することができるとは限らない。
 本開示では、距離画像に基づいて表示画面における指定位置を決定することが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
 本開示によれば、表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するポイントクラウド生成部と、生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、上記表示画面において指定された指定位置を決定する位置決定部と、を備える、情報処理装置が提供される。
 また、本開示によれば、表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するステップと、生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、上記表示画面において指定された指定位置を決定するステップと、を有する、情報処理装置により実行される情報処理方法が提供される。
 また、本開示によれば、表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するステップ、生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、上記表示画面において指定された指定位置を決定するステップ、をコンピュータに実行させるためのプログラムが提供される。
 本開示によれば、距離画像に基づいて表示画面における指定位置を決定することができる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握されうる他の効果が奏されてもよい。
本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理の一例を示す流れ図である。 本実施形態に係るステレオ画像の一例を示す説明図である。 本実施形態に係る距離画像の一例を示す説明図である。 本実施形態に係るポイントクラウドの一例を示す説明図である。 本実施形態に係る情報処理方法に係る処理を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理を説明するための説明図である。 本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。 本実施形態に係るオフセット量決定処理の一例を示す流れ図である。 本実施形態に係るキャリブレーション用のオブジェクトが表示された表示画面の一例を示す説明図である。 本実施形態に係る情報処理装置の構成の一例を示すブロック図である。 本実施形態に係る情報処理装置のハードウェア構成の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下では、下記に示す順序で説明を行う。
  1.本実施形態に係る情報処理方法
  2.本実施形態に係る情報処理装置
  3.本実施形態に係るプログラム
(本実施形態に係る情報処理方法)
 本実施形態に係る情報処理装置の構成について説明する前に、まず、本実施形態に係る情報処理方法について説明する。以下では、本実施形態に係る情報処理方法に係る処理を、本実施形態に係る情報処理装置が行う場合を例に挙げて、本実施形態に係る情報処理方法について説明する。
[1]本実施形態に係る情報処理方法に係る処理の概要
 本実施形態に係る情報処理装置は、例えば、表示画面からオブジェクトまでの距離に相当する距離が表される距離画像に基づいて、表示画面に対して指定された表示画面の位置(以下、「指定位置」と示す。)を決定する。
 本実施形態に係る距離画像は、例えば、表示画面側から表示画面に対向する方向が撮像されることにより生成されたステレオ画像に基づいて、生成される。本実施形態に係るステレオ画像とは、例えば、撮像位置を平行にずらして撮像デバイスにより撮像された2つの撮像画像である。本実施形態に係るステレオ画像を構成する2つの撮像画像は、例えば、立体視を実現する場合における、ユーザの右目に対応する右目画像と、ユーザの左目に対応する左目画像とに対応する。本実施形態に係る距離画像は、例えば、三角測量の原理を用いる方法など、ステレオ画像から距離画像を生成することが可能な任意の技術を用いて生成される。ステレオ画像の生成に係る撮像デバイスは、例えば、表示画面側から表示画面に対向する方向が撮像されるように配置される。
 なお、本実施形態に係る距離画像は、ステレオ画像に基づき生成される距離画像に限られない。例えば、本実施形態に係る距離画像は、例えば、ToF(Time of Flight)方式や、ストラクチャードライト方式などの距離画像を生成することが可能な任意の方式により生成された画像であってもよい。ToF方式などで距離画像を生成する距離画像センサは、例えば、表示画面側から表示画面に対向する方向に対応する距離画像を生成するように配置される。
 本実施形態に係る距離画像の生成に係る処理は、例えば、本実施形態に係る情報処理装置が備える距離画像センサや、本実施形態に係る情報処理装置と有線または無線により通信可能な外部の距離画像センサにより生成される。本実施形態に係る距離画像センサとしては、例えば、パッシブ型の深度センサ(ステレオ画像の視差により距離画像を生成する深度センサ)や、アクティブ型の深度センサ(例えば、ToF方式の深度センサや、ストラクチャードライト方式の深度センサ)が挙げられる。
 なお、本実施形態に係る距離画像の生成に係る処理は、距離画像センサにより行われることに限られない。例えば、ステレオ画像から距離画像が生成される場合には、本実施形態に係る情報処理装置は、本実施形態に係る情報処理装置が備える撮像デバイスや、本実施形態に係る情報処理装置と有線または無線により通信可能な外部の撮像デバイスにおいて生成されたステレオ画像から、距離画像を生成することも可能である。
 ここで、本実施形態に係る距離画像が示すオブジェクトまでの距離は、厳密には、距離画像センサからオブジェクトまでの距離、または、ステレオ画像の生成に係る撮像デバイスからオブジェクトまでの距離に該当する。しかしながら、上記のように、例えば、距離画像センサは、表示画面側から表示画面に対向する方向に対応する距離画像を生成するように配置され、また、ステレオ画像の生成に係る撮像デバイスは、表示画面側から表示画面に対向する方向が撮像されるように配置される。よって、本実施形態に係る距離画像が示すオブジェクトまでの距離は、表示画面からオブジェクトまでの距離に相当する距離と捉えることが可能である。
 以下では、本実施形態に係る距離画像が、距離画像センサにおいてステレオ画像に基づき生成される場合を主に例に挙げる。
 より具体的には、本実施形態に係る情報処理装置は、例えば、下記の(1)ポイントクラウド生成処理、および(2)指定位置決定処理を行うことによって、距離画像に基づいて表示画面における指定位置を決定する。
(1)ポイントクラウド生成処理
 本実施形態に係る情報処理装置は、距離画像からポイントクラウドを生成する。
 ここで、ポイントクラウドとは、2次元の画像で表現される距離画像上の観測点を、3次元空間上に置き換えたものであり、3次元座標で表現される点の集合(以下、「点群」と示す。)である。ポイントクラウドは、オブジェクトの表面を点群で表現したものである。本実施形態に係る情報処理装置は、例えば、距離画像に含まれるオブジェクトの表面を、水平方向の座標x、垂直方向の座標y、深度値zで表される点(x,y,z)を含む点群で表現することにより、距離画像からポイントクラウドを生成する。ここで、ポイントクラウドの各点の3次元座標は、例えば、表示画面上の所定の位置(例えば、表示画面の中心位置や、表示画面の左端上の位置など)など、設定された位置を原点として表される。
 具体例を挙げると、距離画像センサの水平画素数を“w”、距離画像センサの垂直画素数を“h”、距離画像上の画素(u,v)における深度値を“d”、距離画像センサの水平画角を“haov”、距離画像センサの垂直画角を“vaov”とすると、本実施形態に係る情報処理装置は、例えば、下記の数式1~数式3により、ポイントクラウドを生成する。ここで、距離画像が、距離画像センサからの絶対距離を示し、距離画像センサの画角が既知である場合には、本実施形態に係る情報処理装置は、下記の数式1~数式3によって、実スケールのポイントクラウドを生成することができる。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 なお、本実施形態に係るポイントクラウド生成処理は、上記数式1~上記数式3に示す演算によりポイントクラウドを生成することに限られない。本実施形態に係る情報処理装置は、例えば、ポイントクラウドを生成することが可能な任意の技術を利用して、ポイントクラウドを生成してもよい。
(2)指定位置決定処理
 本実施形態に係る情報処理装置は、上記(1)の処理(ポイントクラウド生成処理)により生成されたポイントクラウドに対して主成分分析(Principal Component Analysis)を行い、主成分分析の分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出する。ここで、本実施形態に係る位置指定に関するオブジェクトとしては、例えば、操作者の腕部分や、指示棒などの操作者が位置の指定に用いることが可能な任意のデバイスなどが挙げられる。
 そして、本実施形態に係る情報処理装置は、検出された位置指定に関するオブジェクトに対応するベクトルに基づいて、指定位置を決定する。本実施形態に係る情報処理装置は、例えば、主成分分析が行われた点群における所定の位置を起点とする、位置指定に関するオブジェクトに対応するベクトルである第1主成分のベクトルと、表示画面との交点を求める。そして、本実施形態に係る情報処理装置は、表示画面における求められた交点に対応する位置を、指定位置として決定する。上記主成分分析が行われた点群における所定の位置としては、例えば、点群の重心位置などが挙げられる。
 本実施形態に係る情報処理装置は、主成分分析の結果得られる第1主成分のベクトルを、位置指定に関するオブジェクトに対応するベクトルとする。第1主成分は、ポイントクラウドを構成する点群において最も分散が大きい方向に対応する直線で表される。
 ここで、本実施形態に係る情報処理装置は、例えば、第1主成分の主成分スコアと、主成分分析の結果得られる第2主成分の主成分スコアとの比較結果に基づいて、第1主成分のベクトルと表示画面との交点を選択的に求める。
 第1主成分の主成分スコアは、“ポイントクラウドを構成する点群において最も分散が大きい方向に対応する直線に対して、ポイントクラウドを構成する各点の座標を代入して得られる値の和”である。また、第2主成分は、ポイントクラウドを構成する点群において2番目に分散が大きい方向に対応する直線で表される。第2主成分の主成分スコアは、“ポイントクラウドを構成する点群において2番目に分散が大きい方向に対応する直線に対して、ポイントクラウドを構成する各点の座標を代入して得られる値の和”である。つまり、主成分スコアが最も大きなものが第1主成分であり、主成分が2番目に大きなものが第2主成分である。
 本実施形態に係る情報処理装置は、例えば、第1主成分の主成分スコアと第2主成分の主成分スコアとの比が、設定されている閾値以上である場合(または、当該比が、当該閾値よりも大きい場合。以下、同様とする。)に、第1主成分のベクトルと表示画面との交点を求める。また、本実施形態に係る情報処理装置は、例えば、第1主成分の主成分スコアと第2主成分の主成分スコアとの比が、設定されている閾値よりも小さい場合(または、当該比が、当該閾値以下である場合。以下、同様とする。)には、第1主成分のベクトルと表示画面との交点を求めない。
 本実施形態に係る閾値は、例えば、操作者が指さし動作などの位置の指定に係る所定の動作を行った場合に、第1主成分のベクトルと表示画面との交点が求められ、操作者が当該所定の動作を行わない場合に第1主成分のベクトルと表示画面との交点が求められないような値が、設定される(例えば、実験により最適値が設定される。)。なお、本実施形態に係る閾値は、ユーザ操作などによる調整が可能であってもよい。
 例えば上記のように、第1主成分の主成分スコアと第2主成分の主成分スコアとの比較結果に基づいて、第1主成分のベクトルと表示画面との交点を選択的に求めることによって、例えば、操作者が指さし動作などの位置の指定に係る所定の動作を行っていないにも関わらず指定位置が決定されることを、防止することが可能となる。
 なお、本実施形態に係る指定位置決定処理の具体例については、後述する。
 本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば、上記(1)の処理(ポイントクラウド生成処理)、および上記(2)の処理(指定位置決定処理)を行う。本実施形態に係る情報処理装置は、上記(2)の処理(指定位置決定処理)において、上記(1)の処理(ポイントクラウド生成処理)において距離画像に基づき生成されたポイントクラウドに対して主成分分析を行った分析結果に基づき、第1主成分のベクトルと表示画面との交点に対応する位置を、指定位置として決定する。
 したがって、本実施形態に係る情報処理装置は、距離画像に基づいて表示画面における指定位置を決定することができる。
 また、距離画像に基づいて表示画面における指定位置を決定することが可能であるので、本実施形態に係る情報処理装置は、表示画面における指定位置を、安定して決定することができる。
 また、ポイントクラウドに対して主成分分析を行った分析結果に基づき検出される位置指定に関するオブジェクトに対応するベクトルによって、表示画面における指定位置が決定されるので、本実施形態に係る情報処理装置は、表示画面における指定位置を精度よく決定することができる。
 さらに、ポイントクラウドに対して主成分分析を行った分析結果に基づき指定位置が決定されるので、例えば、操作者の腕(位置指定に関するオブジェクトの一例)のみが距離画像に含まれる場合であっても、本実施形態に係る情報処理装置は、表示画面における指定位置を決定することができる。
[2]本実施形態に係る情報処理方法に係る処理の具体例
 図1は、本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図であり、表示デバイス10と、距離画像センサ(または撮像デバイス)12との位置関係の一例を示している。また、図1では、操作者Uが、指さしによりポインティング操作を行っている例を示している。本実施形態に係る情報処理装置は、距離画像センサ(または撮像デバイス)12から取得された距離画像(または、ステレオ画像)を処理して、表示デバイス10の表示画面における指定位置Pを決定する。なお、図1では、本実施形態に係る情報処理装置を図示していないが、例えば、表示デバイス10が本実施形態に係る情報処理装置の役目を果たしてもよく、また、距離画像センサ(または撮像デバイス)12が本実施形態に係る情報処理装置の役目を果たしてもよい。
 図1に示すように、距離画像センサ(または撮像デバイス)12は、表示デバイス10の下部に設置され、表示デバイス10の表示画面側に対向する操作者を観測する。
 なお、表示デバイス10と、距離画像センサ(または撮像デバイス)12との位置関係は、図1に示す例に限られない。
 図2は、本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図であり、表示デバイス10と、距離画像センサ(または撮像デバイス)12との位置関係の他の例を示している。
 距離画像センサ(または撮像デバイス)12は、例えば図2に示すように、表示デバイス10の表示画面の下方、上方、右方、左方のいずれかに配置することが可能である。
 ここで、距離画像センサ(または撮像デバイス)12が、表示画面の下方に配置される場合には、例えば図1、図2に示すように、距離画像センサ(または撮像デバイス)12を床に配置すればよいので、配置が容易であるという利点をさらに有する。また、距離画像センサ(または撮像デバイス)12が、表示画面の上方に配置される場合には、例えば、重力により操作者が着ている服が本実施形態に係る情報処理方法に係る処理に与える影響小さく、また、腕から指先まで比較的平らであることなどから、位置指定に関するオブジェクトに対応するベクトルをより安定して検出することができるという利点をさらに有する。
 また、距離画像センサ(または撮像デバイス)12は、例えば、“距離画像が示すオブジェクトまでの距離が、表示画面からオブジェクトまでの距離に相当する距離とみなせる距離”内であって、距離画像センサ(または撮像デバイス)12を配置することが可能な、表示デバイス10との間の距離がより長い距離となる位置に、配置される。上記のように距離画像センサ(または撮像デバイス)12が配置されることによって、本実施形態に係る情報処理装置により決定される表示画面における指定位置の精度を、より向上させることが可能となる。
 また、設置される距離画像センサ(または撮像デバイス)12の数、および、表示デバイス10と距離画像センサ(または撮像デバイス)12との位置関係は、図1に示す例に限られない。
 図3、図4は、本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図であり、設置される距離画像センサ(または撮像デバイス)12の数、および、表示デバイス10と距離画像センサ(または撮像デバイス)12との位置関係の他の例を示している。図4は、図3における、センサ数が2で“表示画面下方、表示画面右方”に、距離画像センサ(または撮像デバイス)12Aと、距離画像センサ(または撮像デバイス)12Bとが配置されている例を示している。
 ここで、図4に示す、設置される距離画像センサ(または撮像デバイス)12の数、および、表示デバイス10と距離画像センサ(または撮像デバイス)12との位置関係の各ケースは、例えば下記の(a)~(f)に示すような利点をさらに有する。
(a)センサ数が2で“表示画面上方、表示画面左方”に距離画像センサ(または撮像デバイス)12が配置される場合
 “1番目に決定される指定位置の精度をより向上させることができるという利点”と、“操作者が1人である場合における、左手を用いたポインティング操作に対応する指定位置の精度をより向上させることができるという利点”がある。
(b)センサ数が2で“表示画面上方、表示画面右方”に距離画像センサ(または撮像デバイス)12が配置される場合
 “1番目に決定される指定位置の精度をより向上させることができるという利点”と、“操作者が1人である場合における、右手を用いたポインティング操作に対応する指定位置の精度をより向上させることができるという利点”がある。
(c)センサ数が2で“表示画面下方、表示画面左方”に距離画像センサ(または撮像デバイス)12が配置される場合
 “1番目に決定される指定位置の精度をより向上させることができるという利点”と、“操作者が1人である場合における、左手を用いたポインティング操作に対応する指定位置の精度をより向上させることができるという利点”がある。
(d)センサ数が2で“表示画面下方、表示画面右方”に距離画像センサ(または撮像デバイス)12が配置される場合
 “1番目に決定される指定位置の精度をより向上させることができるという利点”と、“操作者が1人である場合における、右手を用いたポインティング操作に対応する指定位置の精度をより向上させることができるという利点”がある。
(e)センサ数が3で“表示画面上方、表示画面左方、表示画面右方”に距離画像センサ(または撮像デバイス)12が配置される場合
 “操作者が1人である場合における、右手および左手それぞれを用いたポインティング操作に対応する指定位置の精度をより向上させることができるという利点”がある。
(f)センサ数が3で“表示画面下方、表示画面左方、表示画面右方”に距離画像センサ(または撮像デバイス)12が配置される場合
 “操作者が1人である場合における、右手および左手それぞれを用いたポインティング操作に対応する指定位置の精度をより向上させることができるという利点”がある。
 例えば図3、図4に示すように、複数の距離画像センサ(または撮像デバイス)に基づく、複数の距離画像を処理して指定位置を決定する場合、本実施形態に係る情報処理装置は、上記(1)の処理(ポイントクラウド生成処理)において、各距離画像からポイントクラウドをそれぞれ生成する。
 また、複数の距離画像センサ(または撮像デバイス)に基づく、複数の距離画像を処理して指定位置を決定する場合、本実施形態に係る情報処理装置は、上記(2)の処理(指定位置決定処理)では、例えば、生成された複数のポイントクラウドをマージする。そして、本実施形態に係る情報処理装置は、マージされた1つのポイントクラウドを処理することによって、複数の距離画像に対応する指定位置を決定する。
 なお、複数の距離画像センサ(または撮像デバイス)に基づく、複数の距離画像を処理して指定位置を決定する場合における、上記(2)の処理(指定位置決定処理)は、複数のポイントクラウドをマージして行う処理に限られない。
 例えば、本実施形態に係る情報処理装置は、生成された複数のポイントクラウドそれぞれに対して上記(2)の処理(指定位置決定処理)を行って、複数のポイントクラウドそれぞれに対応する指定位置を決定する。そして、本実施形態に係る情報処理装置は、複数のポイントクラウドそれぞれに対応する、表示画面における指定位置のx座標(水平方向成分に対応する座標)と、当該表示画面における指定位置のy座標(垂直方向成分に対応する座標)とをマージすることによって、複数の距離画像に対応する指定位置を決定する。本実施形態に係る情報処理装置は、例えば、複数のポイントクラウドそれぞれに対応する、表示画面における指定位置のx座標の平均値と、当該表示画面における指定位置のy座標の平均値とを算出することによって、当該表示画面における指定位置のx座標と当該表示画面における指定位置のy座標とを、マージする。
 例えば図3、図4に示すように、複数の距離画像センサ(または撮像デバイス)に基づく、複数の距離画像を処理する場合には、本実施形態に係る情報処理装置は、例えば上記のような処理を行うことによって、指定位置を決定する。
 以下、図1に示す状況を例に挙げて、本実施形態に係る情報処理方法に係る処理について、より具体的に説明する。
 図5は、本実施形態に係る情報処理方法に係る処理の一例を示す流れ図である。ここで、図5では、ステップS104の処理が、上記(1)の処理(ポイントクラウド生成処理)に該当し、ステップS106~S112の処理が、上記(2)の処理(指定位置決定処理)の一例に該当する。
 また、図5では、本実施形態に係る情報処理装置が、撮像デバイスにより撮像されたステレオ画像に基づき距離画像を生成する場合における処理を示している。なお、本実施形態に係る情報処理装置が、距離画像センサから取得された距離画像を処理する場合には、本実施形態に係る情報処理装置は、図5に示すステップS100の処理において距離画像を判定対象とし、図5に示すステップS102の処理を行わない。
 本実施形態に係る情報処理装置は、ステレオ画像が取得されたか否かを判定する(S100)。ステップS100においてステレオ画像が取得されたと判定されない場合には、本実施形態に係る情報処理装置は、処理を進めない。
 また、ステップS100においてステレオ画像が取得されたと判定された場合には、本実施形態に係る情報処理装置は、ステレオ画像に基づいて距離画像を生成する(S102)。本実施形態に係る情報処理装置は、ステレオ画像における視差から距離画像を生成する。本実施形態に係る情報処理装置は、例えば、三角測量の原理を用いる方法など、ステレオ画像から距離画像を生成することが可能な任意の技術を用いて距離画像を生成する。
 図6は、本実施形態に係るステレオ画像の一例を示す説明図であり、ステレオ画像を構成する一の画像(右目画像に該当する画像)の一例を示している。また、図7は、本実施形態に係る距離画像の一例を示す説明図である。
 本実施形態に係る情報処理装置は、例えば図7に示すような距離画像からポイントクラウドを生成する(S104)。本実施形態に係る情報処理装置は、例えば、距離画像上の各画素に対して、上記数式1~上記数式3に示す演算を行うことによって、ポイントクラウドを生成する。
 ここで、距離画像が距離画像センサからの絶対距離を示す、すなわち、距離画像から実スケールの深度情報が得られ、また、距離画像センサの画角が既知である場合には、本実施形態に係る情報処理装置は、上記数式1~上記数式3により実スケールのポイントクラウドを生成することができる。また、上記の場合において実スケールのポイントクラウドが生成されることによって、実スケールの3次元空間を再現することが可能となる。
 図8は、本実施形態に係るポイントクラウドの一例を示す説明図であり、図7に示す距離画像から生成されたポイントクラウドの一例を示している。
 本実施形態に係る情報処理装置は、ポイントクラウドから表示画面に近い点群を抽出する(S106)。
 本実施形態に係る情報処理装置は、例えば、ポイントクラウドを構成する点群のうちから、深度値zが最も小さい点を、表示画面に最も近い点(以下、「突端」と示す場合がある。)として検出する。そして、本実施形態に係る情報処理装置は、表示画面に最も近い点を中心とした、設定された所定の半径の球内に含まれる点群を抽出する。上記所定の半径は、予め設定された固定値であってもよいし、ユーザなどが調整可能な可変値であってもよい。なお、本実施形態に係る情報処理装置は、表示画面に最も近い点を内部に含む、設定された所定の形状の空間に含まれる点群を、抽出することも可能である。
 本実施形態に係る情報処理装置は、抽出された点群に対して、主成分分析を行う(S108)。
 ここで、本実施形態に係る情報処理装置は、例えば、抽出された点群をセグメンテーションして、複数の点群に分割する。本実施形態に係る情報処理装置は、例えば、3D点群処理ライブラリ(Point Cloud Library。以下「PCL」と示す。)の“Euclidean Cluster”を利用して、抽出された点群を複数の点群に分割する。そして、本実施形態に係る情報処理装置は、分割された点群のうちの、含まれる点の数が最も多い点群に対して、主成分分析を行う。
 例えば、抽出された点群をセグメンテーションした上で、抽出された点群に含まれる一部の点群に対して主成分分析を行うことによって、位置指定に関するオブジェクト以外のオブジェクトに対応する点群による、主成分分析の結果への影響を排除することが可能となる。よって、抽出された点群をセグメンテーションした上で、抽出された点群に含まれる一部の点群に対して主成分分析を行うことによって、本実施形態に係る情報処理装置は、決定される表示画面における指定位置の精度をより向上させることができる。
 ステップS108において主成分分析が行われると、本実施形態に係る情報処理装置は、第1主成分の主成分スコアと第2主成分の主成分スコアとの比(例えば、“第1主成分の主成分スコア/第2主成分の主成分スコア”)が、所定の閾値以上であるか否かを判定する(S110)。第1主成分の主成分スコアと第2主成分の主成分スコアとの比が、“第1主成分の主成分スコア/第2主成分の主成分スコア”で表される場合、本実施形態に係る所定の閾値としては、例えば、“5”などの設定された値が挙げられる。本実施形態に係る所定の閾値は、予め設定された固定値であってもよいし、ユーザなどが調整可能な可変値であってもよい。
 ここで、ステップS110において、第1主成分の主成分スコアと第2主成分の主成分スコアとの比が所定の閾値以上であると判定された場合とは、主成分分析を行った点群に対応するオブジェクトが、棒状のオブジェクト(位置指定に関するオブジェクトの一例)と判定されることに該当する。
 図9は、本実施形態に係る情報処理方法に係る処理を説明するための説明図であり、図8に示すポイントクラウドにおける第1主成分と第2主成分との一例を示している。図9に示すAは、第1主成分に対応する直線の一例を示し、図9に示すBは、第2主成分に対応する直線の一例を示している。
 ステップS110において、第1主成分の主成分スコアと第2主成分の主成分スコアとの比が所定の閾値以上であると判定されない場合には、本実施形態に係る情報処理装置は、指定位置を決定せずに処理を終了する。
 また、ステップS110において、第1主成分の主成分スコアと第2主成分の主成分スコアとの比が所定の閾値以上であると判定された場合には、本実施形態に係る情報処理装置は、第1主成分のベクトルと表示画面との交点を求め、表示画面における求められた交点に対応する位置を、指定位置として決定する(S112)。本実施形態に係る情報処理装置は、例えば、点群の重心位置などの、点群における所定の位置を起点とする第1主成分のベクトルと表示画面との交点を、指定位置として決定する。上記点群における所定の位置は、予め設定されていてもよいし、ユーザなどが調整可能であってもよい。
 図10は、本実施形態に係る情報処理方法に係る処理を説明するための説明図である。図10に示すように、第1主成分のベクトルVと表示デバイス10の表示画面との交点が、指定位置Pとして決定される。
 本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば図5に示す処理を行うことによって、距離画像に基づいて表示画面における指定位置を決定する。
 なお、本実施形態に係る情報処理方法に係る処理は、図5に示す処理に限られない。
 例えば、本実施形態に係る情報処理装置は、図5のステップS104において生成されたポイントクラウドに対して、ステップS106~S112の処理を繰り返してもよい。
 より具体的には、本実施形態に係る情報処理装置は、例えば図5のステップS108において主成分分析を行った場合には、図5のステップS104において生成されたポイントクラウドに対して主成分分析を行った回数が、6回などの設定された所定の回数に関する条件を満たすかを判定する。上記所定の回数に関する条件としては、主成分分析を行った回数が所定の回数以上であることや、主成分分析を行った回数が所定の回数より大きいことなどが挙げられる。上記所定の回数に関する条件は、予め設定された固定の条件であってもよいし、ユーザなどにより適宜変更可能な条件であってもよい。
 上記所定の回数に関する条件を満たすと判定されない場合には、本実施形態に係る情報処理装置は、主成分分析が行われた点群を処理対象から外して、再度、図5のステップS106以降の処理を行う。
 また、上記所定の回数に関する条件を満たすと判定された場合には、本実施形態に係る情報処理装置は、ステップS106~S112の処理を繰り返さずに、処理を終了する。
 例えば上記のように、設定された所定の回数に関する条件の判定結果に応じて、図10に示すステップS106~S112の処理を繰り返すことによって、本実施形態に係る情報処理装置は、例えば、操作者の両手による指差しや、複数の操作者による指差しなどに対応する、複数の指定位置を決定することができる。
 次に、上記(1)の処理(ポイントクラウド生成処理)、および上記(2)の処理(指定位置決定処理)に該当する、図5に示すステップS104~S112の処理における処理について、より具体的に説明する。
 図11は、本実施形態に係る情報処理方法に係る処理の一例を説明するための説明図である。図11のA~図11のIは、本実施形態に係る情報処理方法に係る処理を時系列に示している。また、図11のA~図11のCは、図5に示すステップS104に示す処理、すなわち、上記(1)の処理(ポイントクラウド生成処理)に該当する。また、図11のD~図11のIは、図5に示すステップS112の処理、すなわち、上記(2)の処理(指定位置決定処理)に該当する。
 図11のAは、距離画像に基づき生成されたポイントクラウドの一例を示している。以下、図11では、本実施形態に係る情報処理装置が、図11のAに示す点群に対して処理を行うものとする。
 本実施形態に係る情報処理装置は、図11のAに示す点群に対して、フィルタ処理を行う。本実施形態に係る情報処理装置は、例えば、PCLの“Pass Through Filter”(オクルージョンの深度0などの処理において無効な点群を削除するフィルタ)や、PCLの“Voxel Grid Filter”(15[mm]空間において代表点におきかえるダウンサンプリングのためのフィルタ)、“Outlier Removal Filter”(空間上に散っている外れ点(ゴミ)を削除するフィルタ)を用いる。なお、本実施形態に係る情報処理装置がフィルタ処理に用いるフィルタが、上記に示す例に限られないことは、言うまでもない。
 図11に示すBは、図11のAに示す点群に対してフィルタ処理が行われた結果の一例を示している。フィルタ処理が行われることによって、計算量の削減と、位置指定に関するオブジェクトの誤認識の防止との効果を奏することができる。
 本実施形態に係る情報処理装置は、図11のBに示すフィルタ処理後の点群に対して回転行列(移動行列)を乗算し、点群を移動させる。本実施形態に係る情報処理装置は、例えば、表示画面の中心位置などの表示画面における所定の位置から観測された場合に対応するように、点群を移動させる。例えば、距離画像センサ12が、図2に示す表示画面上方に設置されている場合には、本実施形態に係る情報処理装置は、Pitch方向の回転と、垂直方向の移動とを行う。図11に示すCは、図11のBに示すフィルタ処理後の点群を移動させる場合の概念図を示している。
 図11のCに示すような点群の移動を行うことによって、本実施形態に係る情報処理装置は、位置指定に関するオブジェクトに対応するベクトルの検出に係る処理をより簡易な処理とすることができる。
 本実施形態に係る情報処理装置は、図5に示すステップS104において、例えば図11のA~図11のCを参照して示した処理を行う。
 本実施形態に係る情報処理装置は、図11のDに示すように、点群を構成する全ての点の中から、深度値zが最も小さい点を、突端として検出する。図11のDに示す処理は、図5に示すステップS106に該当する。
 本実施形態に係る情報処理装置は、図11のEに示すように、例えば、図11のDに示す処理において検出された点(突端)を中心に、半径300[mm](所定の半径の一例)の球内に含まれる点を抽出する。図11のEでは、複数の点からなる点群が抽出された例を示している。
 本実施形態に係る情報処理装置は、図11のFに示すように、図11のEの処理により抽出された点群をセグメンテーションして、複数の点群に分割する。本実施形態に係る情報処理装置は、例えば、PCLの“Euclidean Cluster”を利用して、抽出された点群を複数の点群に分割する。
 図11のFに示すように、セグメンテーションにより抽出された点群が複数の点群に分割されることによって、位置指定に関するオブジェクトと、他のオブジェクトとを分けることが可能となる。
 本実施形態に係る情報処理装置は、図11のFにおいて分割された点群のうちの、含まれる点の数が最も多い点群が、位置指定に関するオブジェクトに対応する点群に含まれる点と隣接する点を含む点群であるか否かを判定する。ここで、上記の判定に係る処理は、図11のFにおいて分割された点群のうちの、含まれる点の数が最も多い点群が、位置指定に関するオブジェクトに対応する点群と繋がっているか否かを判定する処理に相当する。図11のGは、含まれる点の数が最も多い点群が、位置指定に関するオブジェクトに対応する点群に含まれる点と隣接する点を含む点群である場合の概念図を示している。
 本実施形態に係る情報処理装置は、例えば、位置指定に関するオブジェクトに対応する点群に含まれる各点との距離が、設定された閾値以下の点(または、当該閾値より小さい点)が、上記含まれる点の数が最も多い点群に含まれる点である場合に、上記含まれる点の数が最も多い点群を、上記隣接する点を含む点群であると判定する。なお、図11のGに係る処理における判定方法は、上記に示す方法に限られず、本実施形態に係る情報処理装置は、例えば、含まれる点の数が最も多い点群が、位置指定に関するオブジェクトに対応する点群と繋がっているか否かを判定することが可能な、任意の処理を行うことも可能である。
 図11のGに係る処理において、図11のFにおいて分割された点群のうちの、含まれる点の数が最も多い点群が、位置指定に関するオブジェクトに対応する点群に含まれる点と隣接する点を含む点群であると判定された場合には、本実施形態に係る情報処理装置は、当該含まれる点の数が最も多い点群に対して主成分分析を行う。そして、本実施形態に係る情報処理装置は、位置指定に関するオブジェクトに対応するベクトルに該当する、第1主成分のベクトルと、表示画面との交点の位置を、選択的に求める。図11のHは、図11のFにおける、分割された点群のうちの含まれる点の数が最も多い点群に対して、主成分分析が行われる場合の概念図を示している。
 また、図11のGに係る処理において、図11のFにおいて分割された点群のうちの、含まれる点の数が最も多い点群が、位置指定に関するオブジェクトに対応する点群に含まれる点と隣接する点を含む点群であると判定されない場合には、本実施形態に係る情報処理装置は、当該含まれる点の数が最も多い点群に対して、主成分分析を行わない。そして、本実施形態に係る情報処理装置は、含まれる点の数が最も多い点群を、処理対象から外す。図11のIは、図11のFにおける、分割された点群のうちの含まれる点の数が最も多い点群を、処理対象から外す場合の概念図を示している。
 本実施形態に係る情報処理装置は、例えば、分割された点群のうちの含まれる点の数が最も多い点群を構成する各点の深度値zを“9999999”などに書き換えることや、当該含まれる点の数が最も多い点群を削除することによって、当該含まれる点の数が最も多い点群を、処理対象から外す。
 本実施形態に係る情報処理装置は、図5に示すステップS108~S112において、例えば図11のD~図11のIを参照して示した処理を行う。
 また、本実施形態に係る情報処理装置は、上述したように、図11のAに示す生成されたポイントクラウドに対して主成分分析を行った回数が、所定の回数に関する条件を満たすかを判定してもよい。本実施形態に係る情報処理装置は、上記所定の回数に関する条件を満たすと判定されない場合には、主成分分析が行われた点群を処理対象から外して、再度、図11のDからの処理(図5におけるステップS106からの処理に該当する。)を繰り返す。
[3]本実施形態に係る情報処理方法に係る他の処理
 本実施形態に係る情報処理装置は、上述したように、本実施形態に係る情報処理方法に係る処理として、例えば、上記(1)の処理(ポイントクラウド生成処理)、および上記(2)の処理(指定位置決定処理)を行うことによって、距離画像に基づいて表示画面における指定位置を決定する。
 なお、本実施形態に係る情報処理方法に係る処理は、上記(1)の処理(ポイントクラウド生成処理)、および上記(2)の処理(指定位置決定処理)に限られない。例えば、本実施形態に係る情報処理方法に係る処理により、精度よく指定位置を決定することが可能であるが、例えば、操作者となるユーザごとの感覚的要因などによって、決定された表示画面における位置と、操作者が期待する位置との間にずれが生じる可能性がある。
 そこで、本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、(3)指定位置を調整するためのオフセット量を決定する処理(以下、「オフセット量決定処理」と示す。)を行う。
(3-1)オフセット量決定処理の第1の例
 本実施形態に係る情報処理装置は、例えば、表示画面における所定の位置と、上記(2)の処理(指定位置決定処理)により決定された指定位置とに基づいて、オフセット量を決定する。
 より具体的には、本実施形態に係る情報処理装置は、例えば、操作者が表示画面における特定の位置(表示画面における特定の点の位置や、特定の領域内の位置)を指定した場合において決定された指定位置と、当該特定の位置に対応する位置との差を、x座標(水平方向成分に対応する座標)、y座標(垂直方向成分に対応する座標)それぞれについて求める。そして、本実施形態に係る情報処理装置は、求められたx座標の差を、表示画面における指定位置のx座標を調整するためのオフセット量として決定し、また、求められたy座標の差を、表示画面における指定位置のy座標を調整するためのオフセット量として決定する。
(3-2)オフセット量決定処理の第2の例
 なお、本実施形態に係るオフセット量は、上記に限られない。本実施形態に係るオフセット量は、主成分分析の第1主成分のベクトルのYaw角度を調整する角度と、主成分分析の第1主成分のベクトルのPitch角度を調整する角度とであってもよい。
 本実施形態に係る情報処理装置は、例えば、“主成分分析の結果得られる第1主成分のベクトル(位置指定に関するオブジェクトに対応するベクトル)”と、“位置指定に関するオブジェクトに対応する所定の位置から表示画面における所定の位置方向のベクトル”との差に基づいて、上記Yaw角度を調整する角度と、上記Pitch角度を調整する角度とを、オフセット量として決定する。ここで、位置指定に関するオブジェクトに対応する所定の位置としては、例えば、位置指定に関するオブジェクトに対応する点群の重心位置などが挙げられる。
 本実施形態に係る情報処理装置は、例えば、上記(3-1)に示す第1の例に係るオフセット量決定処理や、上記(3-2)に示す第2の例に係るオフセット量決定処理を行うことによって、オフセット量を決定する。
 オフセット量が決定されると、本実施形態に係る情報処理装置は、決定されたオフセット量を、例えば、本実施形態に係る情報処理装置が備える記憶部(後述する)や、本実施形態に係る情報処理装置に接続されている外部記録媒体などに記録させる。
 また、オフセット量が決定された場合、本実施形態に係る情報処理装置は、例えば、操作者を示すデータ(例えば、操作者を示すIDなど)と、決定されたオフセット量とを対応付けて記録媒体に記録させてもよい。本実施形態に係る情報処理装置は、“顔認識や音声認識などの生体認識”や、“IDおよびパスワード”などにより認識された操作者の認識結果に基づいて、オフセット量とを対応付ける操作者を示すデータを特定する。ここで、操作者の認識に係る処理は、本実施形態に係る情報処理装置が行ってもよいし、本実施形態に係る情報処理装置の外部装置において行われてもよい。
 また、オフセット量が決定された場合、本実施形態に係る情報処理装置は、例えば、操作者の操作に係る手を示すデータ(例えば、右手または左手を示すIDなど)と、決定されたオフセット量とを対応付けて記録媒体に記録させてもよい。本実施形態に係る情報処理装置は、例えば、表示画面側から表示画面に対向する方向が撮像された撮像画像に対する画像処理などにより得られる手の認識結果に基づいて、オフセット量とを対応付ける操作者の操作に係る手を示すデータを特定する。ここで、操作者の操作に係る手の認識に係る処理は、本実施形態に係る情報処理装置が行ってもよいし、本実施形態に係る情報処理装置の外部装置において行われてもよい。
 さらに、オフセット量が決定された場合、本実施形態に係る情報処理装置は、例えば、操作者を示すデータ、操作者の操作に係る手を示すデータ、および決定されたオフセット量を対応付けて記録媒体に記録させてもよい。
 なお、本実施形態に係るオフセット量決定処理は、上記(3-1)に示す第1の例に係るオフセット量決定処理や、上記(3-2)に示す第2の例に係るオフセット量決定処理に限られない。
 例えば、本実施形態に係る情報処理装置は、操作者の認識結果に基づいて、操作者ごとに、選択的にオフセット量を決定してもよい。
 本実施形態に係る情報処理装置は、例えば、生体認識などによって認識された操作者に対してオフセット量が決定されていない場合に、オフセット量を決定する。また、本実施形態に係る情報処理装置は、例えば、生体認識などによって認識された操作者に対して、オフセット量が決定されている場合には、オフセット量を決定しない。なお、認識された操作者に対してオフセット量が決定されている場合であっても、本実施形態に係る情報処理装置は、例えば、オフセット量の再決定を行うためのユーザ操作などに基づいて、オフセット量を決定することも可能である。
 オフセット量決定処理が行われる場合には、本実施形態に係る情報処理装置は、上記(2)の処理(指定位置決定処理)において、決定されたオブセット量により指定位置を調整して、指定位置を決定する。
 ここで、オブセット量が操作者ごとに決定される場合には、本実施形態に係る情報処理装置は、例えば、操作者の認識結果に基づいて、認識された操作者に対応するオブセット量により指定位置を調整する。また、オブセット量が操作者の操作に係る手ごとに決定される場合には、本実施形態に係る情報処理装置は、例えば、操作者の操作に係る手の認識結果に基づいて、認識された操作者の操作に係る手に対応するオブセット量により指定位置を調整する。さらに、オブセット量が操作者および操作者の操作に係る手ごとに決定される場合には、本実施形態に係る情報処理装置は、例えば、操作者の認識結果および操作者の操作に係る手の認識結果に基づいて、認識された操作者と認識された操作者の操作に係る手とに対応するオブセット量により、指定位置を調整することも可能である。
 本実施形態に係るオブセット量が、x座標を調整するためのオフセット量およびy座標を調整するためのオフセット量である場合、本実施形態に係る情報処理装置は、例えば、決定した指定位置のx座標の値、y座標の値それぞれに、決定された対応するオブセット量を加算することによって、指定位置を調整する。また、本実施形態に係るオブセット量が、主成分分析の第1主成分のベクトルのYaw角度を調整する角度、および主成分分析の第1主成分のベクトルのPitch角度を調整する角度である場合、本実施形態に係る情報処理装置は、例えば、位置指定に関するオブジェクトに対応するベクトルを、オフセット量によって調整した上で、指定位置を決定する。
 本実施形態に係る情報処理装置が、オフセット量決定処理を行い、上記(2)の処理(指定位置決定処理)において、決定されたオブセット量により指定位置を調整して指定位置を決定することによって、決定された表示画面における位置と、操作者が期待する位置との間のずれを補正することが可能となる。よって、本実施形態に係る情報処理装置が、オフセット量決定処理を行い、上記(2)の処理(指定位置決定処理)において、決定されたオブセット量により指定位置を調整して指定位置を決定することによって、操作者にとってより精度の高い指定位置を決定することができる。
 以下、本実施形態に係るオフセット量決定処理の具体例について、説明する。図12は、本実施形態に係るオフセット量決定処理の一例を示す流れ図である。
 本実施形態に係る情報処理装置は、キャリブレーション用のオブジェクトを表示画面に表示させる(S200)。本実施形態に係るキャリブレーション用のオブジェクトとは、操作者に、表示画面における特定の位置を指定させるためのオブジェクトである。本実施形態に係る特定の位置としては、例えば、キャリブレーション用のオブジェクトに含まれる設定された位置(例えば、キャリブレーション用のオブジェクトの中心位置など)が挙げられる。
 図13は、本実施形態に係るキャリブレーション用のオブジェクトが表示された表示画面の一例を示す説明図である。図13に示すAが、本実施形態に係るキャリブレーション用のオブジェクトの一例であり、図13では、本実施形態に係るキャリブレーション用のオブジェクトとして、ログインボタンを示している。図13に示す例では、ログイン操作(操作開始のアクション)と、本実施形態に係るオフセット量決定処理とが同時に行われる。
 ここで、図13に示すように、ログイン操作と、本実施形態に係るオフセット量決定処理とが同時に行われることによって、本実施形態に係る情報処理装置は、本実施形態に係るオフセット量決定処理のためだけの操作をユーザに行わせることなく、オフセット量を決定することができる。よって、図13に示すように、ログイン操作と、本実施形態に係るオフセット量決定処理とが同時に行われることによって、ユーザの負荷を軽減しつつ、オフセット量を決定することが可能となる。
 なお、本実施形態に係るキャリブレーション用のオブジェクトがログインボタンに限られず、また、本実施形態に係るキャリブレーション用のオブジェクトが表示された表示画面とが、図13に示す例に限られないことは、言うまでもない。
 本実施形態に係る情報処理装置は、表示画面上の指定位置を取得する(S202)。本実施形態に係る情報処理装置は、例えば、上記(2)の処理(指定位置決定処理)を行うことによって、指定位置を取得する。
 本実施形態に係る情報処理装置は、キャリブレーション用のオブジェクト近くの位置が指定されているか否かを判定する(S204)。本実施形態に係る情報処理装置は、例えば、キャリブレーション用のオブジェクトにおける設定された位置と、ステップS204において取得された指定位置との距離が、設定された閾値以下の場合(または、当該距離が当該閾値より小さい場合)に、キャリブレーション用のオブジェクト近くの位置が指定されていると判定する。
 ステップS204において、キャリブレーション用のオブジェクト近くの位置が指定されていると判定されない場合には、本実施形態に係る情報処理装置は、ステップS202からの処理を繰り返す。
 また、ステップS204において、キャリブレーション用のオブジェクト近くの位置が指定されていると判定された場合には、本実施形態に係る情報処理装置は、キャリブレーション用のオブジェクト近くの位置が指定されている状態が、設定された一定時間継続しているか否かを判定する(S206)。
 ステップS206において一定時間継続していると判定されない場合には、本実施形態に係る情報処理装置は、ステップS202からの処理を繰り返す。
 また、ステップS206において一定時間継続していると判定された場合には、本実施形態に係る情報処理装置は、オフセット量を決定する(S208)。本実施形態に係る情報処理装置は、例えば、上記(3-1)に示す第1の例に係るオフセット量決定処理や、上記(3-2)に示す第2の例に係るオフセット量決定処理を行い、オフセット量を求めることによって、オフセット量を決定する。
 本実施形態に係る情報処理装置は、本実施形態に係るオフセット量決定処理として、例えば図12に示す処理を行うことによって、オフセット量を決定する。
 なお、本実施形態に係るオフセット量決定処理は、図12に示す例に限られない。例えば、本実施形態に係る情報処理装置は、生体認識などによって認識された操作者の認識結果に基づいて、図12のステップS200~S208の処理(または、キャリブレーション用のオブジェクトが、図13に示すようにログインボタンのように他の処理と共有するオブジェクトの場合には、S202~S208の処理)を、行わないことも可能である。
(本実施形態に係る情報処理装置)
 次に、上述した本実施形態に係る情報処理方法に係る処理を行うことが可能な、本実施形態に係る情報処理装置の構成の一例について説明する。
 図14は、本実施形態に係る情報処理装置100の構成の一例を示すブロック図である。情報処理装置100は、例えば、通信部102と、制御部104とを備える。
 また、情報処理装置100は、例えば、ROM(Read Only Memory。図示せず)や、RAM(Random Access Memory。図示せず)、記憶部(図示せず)、ユーザが操作可能な操作部(図示せず)、様々な画面を表示画面に表示する表示部(図示せず)などを備えていてもよい。情報処理装置100は、例えば、データの伝送路としてのバスにより上記各構成要素間を接続する。
 ROM(図示せず)は、制御部104が使用するプログラムや演算パラメータなどの制御用データを記憶する。RAM(図示せず)は、制御部104により実行されるプログラムなどを一時的に記憶する。
 記憶部(図示せず)は、情報処理装置100が備える記憶手段であり、例えば、オフセット量を示すデータなどの本実施形態に係る情報処理方法に係るデータや、アプリケーションなど様々なデータを記憶する。ここで、記憶部(図示せず)としては、例えば、ハードディスク(Hard Disk)などの磁気記録媒体や、フラッシュメモリ(flash memory)などの不揮発性メモリ(nonvolatile memory)などが挙げられる。また、記憶部(図示せず)は、情報処理装置100から着脱可能であってもよい。
 操作部(図示せず)としては、後述する操作入力デバイスが挙げられる。また、表示部(図示せず)としては、後述する表示デバイスが挙げられる。なお、本実施形態に係る操作対象となる表示画面は、表示部(図示せず)の表示画面であってもよいし、情報処理装置100の外部の表示デバイスの表示画面であってもよい。
[情報処理装置100のハードウェア構成例]
 図15は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す説明図である。情報処理装置100は、例えば、MPU150と、ROM152と、RAM154と、記録媒体156と、入出力インタフェース158と、操作入力デバイス160と、表示デバイス162と、通信インタフェース164とを備える。また、情報処理装置100は、例えば、データの伝送路としてのバス166で各構成要素間を接続する。
 MPU150は、例えば、MPU(Micro Processing Unit)などの演算回路で構成されるプロセッサや、各種処理回路などで構成され、情報処理装置100全体を制御する制御部104として機能する。また、MPU150は、情報処理装置100において、例えば、後述する距離画像生成部110、ポイントクラウド生成部112、位置決定部114、およびオフセット量決定部116の役目を果たす。
 ROM152は、MPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。RAM154は、例えば、MPU150により実行されるプログラムなどを一時的に記憶する。
 記録媒体156は、記憶部(図示せず)として機能し、例えば、オフセット量を示すデータなどの本実施形態に係る情報処理方法に係るデータや、アプリケーションなど様々なデータを記憶する。ここで、記録媒体156としては、例えば、ハードディスクなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリが挙げられる。また、記録媒体156は、情報処理装置100から着脱可能であってもよい。
 入出力インタフェース158は、例えば、操作入力デバイス160や、表示デバイス162を接続する。操作入力デバイス160は、操作部(図示せず)として機能し、また、表示デバイス162は、表示部(図示せず)として機能する。ここで、入出力インタフェース158としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路などが挙げられる。
 また、操作入力デバイス160は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。操作入力デバイス160としては、例えば、ボタンや、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。
 また、表示デバイス162は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。表示デバイス162としては、例えば、液晶ディスプレイ(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescence Display。または、OLEDディスプレイ(Organic Light Emitting Diode Display)ともよばれる。)などが挙げられる。
 なお、入出力インタフェース158が、情報処理装置100の外部装置としての外部操作入力デバイス(例えば、キーボードやマウスなど)や外部表示デバイスなどの、外部デバイスと接続することも可能であることは、言うまでもない。また、表示デバイス162は、例えばタッチスクリーンなど、表示とユーザ操作とが可能なデバイスであってもよい。
 通信インタフェース164は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、外部の距離画像センサや外部の撮像デバイス、外部の表示デバイスなどの外部デバイスや、外部装置と、無線または有線で通信を行うための通信部102として機能する。ここで、通信インタフェース164としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)などが挙げられる。また、本実施形態に係るネットワークとしては、例えば、LANやWAN(Wide Area Network)などの有線ネットワーク、無線LAN(WLAN:Wireless Local Area Network)や基地局を介した無線WAN(WWAN:Wireless Wide Area Network)などの無線ネットワーク、あるいは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの通信プロトコルを用いたインターネットなどが挙げられる。
 情報処理装置100は、例えば図15に示す構成によって、本実施形態に係る情報処理方法に係る処理を行う。なお、本実施形態に係る情報処理装置100のハードウェア構成は、図15に示す構成に限られない。
 例えば、情報処理装置100は、パッシブ型の深度センサや、アクティブ型の深度センサなどの距離画像センサをさらに備えていてもよい。距離画像センサをさらに備える場合、情報処理装置100は、当該距離画像センサが生成した距離画像を処理することが可能である。
 また、情報処理装置100は、例えば、ステレオ画像を生成する撮像デバイスをさらに備えていてもよい。本実施形態に係る撮像デバイスとしては、例えば、レンズ/撮像素子と信号処理回路とが挙げられる。レンズ/撮像素子は、例えば、光学系のレンズと、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を複数用いたイメージセンサとで構成される。信号処理回路は、例えば、AGC(Automatic Gain Control)回路やADC(Analog to Digital Converter)を備え、撮像素子により生成されたアナログ信号をデジタル信号(画像データ)に変換する。また、信号処理回路は、例えば、White Balance補正処理や、色調補正処理、ガンマ補正処理、YCbCr変換処理、エッジ強調処理など各種信号処理を行ってもよい。
 また、情報処理装置100は、例えば、接続されている外部通信デバイスを介して、外部装置と通信を行う場合には、通信インタフェース164を備えていなくてもよい。また、情報処理装置100は、記録媒体156や、操作入力デバイス160、表示デバイス162を備えない構成をとることも可能である。
 再度図14を参照して、情報処理装置100の構成の一例について説明する。通信部102は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、外部の距離画像センサなどの外部デバイスや、外部装置と、無線または有線で通信を行う。また、通信部102は、例えば制御部104により通信が制御される。
 ここで、通信部102としては、例えば、通信アンテナおよびRF回路や、LAN端子および送受信回路などが挙げられるが、通信部102の構成は、上記に限られない。例えば、通信部102は、USB端子および送受信回路など通信を行うことが可能な任意の規格に対応する構成や、ネットワークを介して外部装置と通信可能な任意の構成をとることができる。
 制御部104は、例えばMPUなどで構成され、情報処理装置100全体を制御する役目を果たす。また、制御部104は、例えば、距離画像生成部110と、ポイントクラウド生成部112と、位置決定部114と、オフセット量決定部116とを備え、本実施形態に係る情報処理方法に係る処理を主導的に行う役目を果たす。また、制御部104は、例えば、通信部102における通信を制御する通信制御部(図示せず)をさらに備えていてもよい。
 距離画像生成部110は、表示画面側から表示画面に対向する方向が撮像されることにより生成されたステレオ画像から、距離画像を生成する。距離画像生成部110は、例えば、三角測量の原理を用いる方法など、ステレオ画像から距離画像を生成することが可能な任意の技術に係る処理を行うことによって、距離画像を生成する。
 距離画像生成部110は、例えば、表示画面側から表示画面に対向する方向が撮像されるように配置された外部の撮像デバイスから送信され、通信部102により受信されたステレオ画像を処理する。また、例えば、情報処理装置100が、表示画面側から表示画面に対向する方向が撮像されるように配置された撮像デバイスを有する撮像部(図示せず)を備えている場合には、距離画像生成部110は、撮像部(図示せず)が撮像により生成したステレオ画像を処理する。
 ポイントクラウド生成部112は、上記(1)の処理(ポイントクラウド生成処理)を主導的に行う役目を果たし、距離画像からポイントクラウドを生成する。また、ポイントクラウド生成部112は、さらに、図11のB、および図11のCに示す処理を行ってもよい。
 距離画像生成部110において距離画像が生成される場合、ポイントクラウド生成部112は、例えば、距離画像生成部110から伝達された距離画像からポイントクラウドを生成する。また、通信部102が、外部の距離画像センサから送信された距離画像を受信した場合には、ポイントクラウド生成部112は、例えば、通信部102により受信された距離画像からポイントクラウドを生成する。
 位置決定部114は、上記(2)の処理(指定位置決定処理)を主導的に行う役目を果たす。位置決定部114は、ポイントクラウド生成部112において生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、表示画面において指定された指定位置を決定する。位置決定部114は、例えば、図5のステップS106~S112の処理や、図11のD~図11のIに示す処理を行うことによって、指定位置を決定する。
 オフセット量決定部116は、上記(3)の処理(オフセット量決定処理)を主導的に行う役目を果たし、オフセット量を決定する。オフセット量決定部116は、例えば、上記(3-1)に示す第1の例に係るオフセット量決定処理や、上記(3-2)に示す第2の例に係るオフセット量決定処理などを行う。
 また、位置決定部114は、オフセット量決定部116においてオフセット量が決定された場合には、決定されたオブセット量により指定位置を調整した上で、指定位置を決定する。
 制御部104は、例えば、距離画像生成部110、ポイントクラウド生成部112、位置決定部114、およびオフセット量決定部116を備えることによって、本実施形態に係る情報処理方法に係る処理を主導的に行う。
 情報処理装置100は、例えば図14に示す構成によって、本実施形態に係る情報処理方法に係る処理(例えば、上記(1)の処理(ポイントクラウド生成処理)~上記(3)の処理(オフセット量決定処理))を行う。
 したがって、情報処理装置100は、例えば図14に示す構成によって、距離画像に基づいて表示画面における指定位置を決定することができる。
 また、例えば図14に示す構成によって、情報処理装置100は、例えば上述したような、本実施形態に係る情報処理方法に係る処理が行われることにより奏される効果を、奏することができる。
 なお、本実施形態に係る情報処理装置の構成は、図14に示す構成に限られない。
 例えば、外部の距離画像センサにおいて生成された距離画像を処理する構成である場合には、本実施形態に係る情報処理装置は、図14に示す距離画像生成部110を備えなくてもよい。また、例えば、本実施形態に係る情報処理装置は、図14に示すオフセット量決定部116を備えない構成をとることも可能である。
 図14に示す距離画像生成部110とオフセット量決定部116との一方または双方を備えない構成をとる場合であっても、本実施形態に係る情報処理装置は、上記(1)の処理(ポイントクラウド生成処理)、および上記(2)の処理(指定位置決定処理)を行うことができる。よって、上記の構成をとる場合であっても、本実施形態に係る情報処理装置は、距離画像に基づいて表示画面における指定位置を決定することができる。
 また、本実施形態に係る情報処理装置は、例えば、図14に示す距離画像生成部110、ポイントクラウド生成部112、位置決定部114、およびオフセット量決定部116のうちの1または2以上を、制御部104とは個別に備える(例えば、別の処理回路で実現する)ことができる。
 また、本実施形態に係る情報処理装置は、本実施形態に係る距離画像や、表示画面側から表示画面に対向する方向が撮像されることにより生成されたステレオ画像を生成する検出部(図示せず)をさらに備えていてもよい。検出部(図示せず)は、例えば、本実施形態に係る距離画像を生成する距離画像センサや、表示画面側から表示画面に対向する方向が撮像されることにより生成されたステレオ画像を生成する撮像デバイスを有する。
 検出部(図示せず)を備える場合、ポイントクラウド生成部112は、検出部(図示せず)が生成した距離画像や、検出部(図示せず)が生成したステレオ画像に基づき距離画像生成部110が生成した距離画像を処理する。
 また、例えば、通信部102と同様の機能、構成を有する外部の通信デバイスを介して、外部の距離画像センサなどの外部デバイスや、外部装置と通信を行う場合には、本実施形態に係る情報処理装置は、通信部102を備えていなくてもよい。
 以上、本実施形態として、情報処理装置を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、PC(Personal Computer)やサーバなどのコンピュータや、距離画像センサを有する装置、表示装置、テレビ受像機、携帯電話やスマートフォンなどの通信装置、タブレット型の装置、映像/音楽再生装置(または映像/音楽記録再生装置)、ゲーム機など、様々な機器に適用することができる。また、本実施形態は、例えば、上記のような機器に組み込むことが可能な、処理IC(Integrated Circuit)に適用することもできる。
 また、本実施形態は、例えばクラウドコンピューティングなどのように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムにより実現されてもよい。つまり、上述した本実施形態に係る情報処理装置は、例えば、複数の装置からなる情報処理システムとして実現することも可能である。
(本実施形態に係るプログラム)
 コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(例えば、“上記(1)の処理(ポイントクラウド生成処理)、および上記(2)の処理(指定位置決定処理)”や、“上記(1)の処理(ポイントクラウド生成処理)~上記(3)の処理(オフセット量決定処理)”など、本実施形態に係る情報処理方法に係る処理を実行することが可能なプログラム)が、コンピュータにおいてプロセッサなどにより実行されることによって、距離画像に基づいて表示画面における指定位置を決定することができる。
 また、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラムが、コンピュータにおいてプロセッサなどにより実行されることによって、上述した本実施形態に係る情報処理方法に係る処理によって奏される効果を、奏することができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記では、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(コンピュータプログラム)が提供されることを示したが、本実施形態は、さらに、上記プログラムを記憶させた記録媒体も併せて提供することができる。
 上述した構成は、本実施形態の一例を示すものであり、当然に、本開示の技術的範囲に属するものである。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するポイントクラウド生成部と、
 生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、前記表示画面において指定された指定位置を決定する位置決定部と、
 を備える、情報処理装置。
(2)
 前記位置決定部は、
 主成分分析の結果得られる第1主成分の主成分スコアと、第2主成分の主成分スコアとの比較結果に基づいて、前記位置指定に関するオブジェクトに対応するベクトルである前記第1主成分のベクトルと、前記表示画面との交点を選択的に求め、求められた交点を前記指定位置として決定する、(1)に記載の情報処理装置。
(3)
 前記位置決定部は、前記表示画面に最も近い点を含む点群を前記ポイントクラウドから抽出し、抽出された点群に対して、主成分分析を行う、(1)、または(2)に記載の情報処理装置。
(4)
 前記位置決定部は、前記表示画面に最も近い点を中心とした、設定された所定の半径の球内に含まれる点群を抽出する、(3)に記載の情報処理装置。
(5)
 前記位置決定部は、
 抽出された点群をセグメンテーションして、複数の点群に分割し、
 分割された点群のうちの、含まれる点の数が最も多い点群に対して、主成分分析を行う、(4)に記載の情報処理装置。
(6)
 前記位置決定部は、前記含まれる点の数が最も多い点群が、前記位置指定に関するオブジェクトに対応する点群に含まれる点と隣接する点を含む点群である場合には、
 前記含まれる点の数が最も多い点群に対して、主成分分析を行わず、
 前記含まれる点の数が最も多い点群を、処理対象から外す、(5)に記載の情報処理装置。
(7)
 前記位置決定部は、
 主成分分析を行った場合には、前記ポイントクラウドに対して主成分分析を行った回数が、設定された所定の回数に関する条件を満たすかを判定し、
 前記所定の回数に関する条件を満たすと判定されない場合には、主成分分析が行われた点群を処理対象から外して、再度、前記ポイントクラウドから前記表示画面に最も近い点を含む点群を抽出して、抽出された点群に対して主成分分析を行う、(3)~(6)のいずれか1つに記載の情報処理装置。
(8)
 前記指定位置を調整するためのオフセット量を決定するオフセット量決定部をさらに備え、
 前記位置決定部は、前記オフセット量が決定された場合には、決定されたオブセット量により前記指定位置を調整した上で、前記指定位置を決定する、(1)~(7)のいずれか1つに記載の情報処理装置。
(9)
 前記オフセット量決定部は、表示画面における所定の位置と、決定された前記指定位置とに基づいて、前記オフセット量を決定する、(8)に記載の情報処理装置。
(10)
 前記オフセット量決定部は、前記位置指定に関するオブジェクトに対応するベクトルである、主成分分析の結果得られる第1主成分のベクトルと、前記位置指定に関するオブジェクトに対応する所定の位置から前記表示画面における所定の位置方向のベクトルとの差に基づいて、前記オフセット量を決定する、(8)に記載の情報処理装置。
(11)
 前記オフセット量決定部は、操作者の認識結果に基づいて、操作者ごとに、選択的に前記オフセット量を決定する、(8)~(10)のいずれか1つに記載の情報処理装置。
(12)
 前記表示画面側から前記表示画面に対向する方向が撮像されることにより生成されたステレオ画像から、前記距離画像を生成する距離画像生成部をさらに備え、
 前記ポイントクラウド生成部は、前記ステレオ画像から生成された前記距離画像からポイントクラウドを生成する、(1)~(11)のいずれか1つに記載の情報処理装置。
(13)
 前記ポイントクラウド生成部は、実スケールでポイントクラウドを生成する、(1)~(12)のいずれか1つに記載の情報処理装置。
(14)
 表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するステップと、
 生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、前記表示画面において指定された指定位置を決定するステップと、
 を有する、情報処理装置により実行される情報処理方法。
(15)
 表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するステップ、
 生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、前記表示画面において指定された指定位置を決定するステップ、
 をコンピュータに実行させるためのプログラム。
 10  表示デバイス
 12、12A、12B  距離画像センサ(または撮像デバイス)
 100 情報処理装置
 102  通信部
 104  制御部
 110  距離画像生成部
 112  ポイントクラウド生成部
 114  位置決定部
 116  オフセット量決定部
 

Claims (15)

  1.  表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するポイントクラウド生成部と、
     生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、前記表示画面において指定された指定位置を決定する位置決定部と、
     を備える、情報処理装置。
  2.  前記位置決定部は、
     主成分分析の結果得られる第1主成分の主成分スコアと、第2主成分の主成分スコアとの比較結果に基づいて、前記位置指定に関するオブジェクトに対応するベクトルである前記第1主成分のベクトルと、前記表示画面との交点を選択的に求め、求められた交点を前記指定位置として決定する、請求項1に記載の情報処理装置。
  3.  前記位置決定部は、前記表示画面に最も近い点を含む点群を前記ポイントクラウドから抽出し、抽出された点群に対して、主成分分析を行う、請求項1に記載の情報処理装置。
  4.  前記位置決定部は、前記表示画面に最も近い点を中心とした、設定された所定の半径の球内に含まれる点群を抽出する、請求項3に記載の情報処理装置。
  5.  前記位置決定部は、
     抽出された点群をセグメンテーションして、複数の点群に分割し、
     分割された点群のうちの、含まれる点の数が最も多い点群に対して、主成分分析を行う、請求項4に記載の情報処理装置。
  6.  前記位置決定部は、前記含まれる点の数が最も多い点群が、前記位置指定に関するオブジェクトに対応する点群に含まれる点と隣接する点を含む点群である場合には、
     前記含まれる点の数が最も多い点群に対して、主成分分析を行わず、
     前記含まれる点の数が最も多い点群を、処理対象から外す、請求項5に記載の情報処理装置。
  7.  前記位置決定部は、
     主成分分析を行った場合には、前記ポイントクラウドに対して主成分分析を行った回数が、設定された所定の回数に関する条件を満たすかを判定し、
     前記所定の回数に関する条件を満たすと判定されない場合には、主成分分析が行われた点群を処理対象から外して、再度、前記ポイントクラウドから前記表示画面に最も近い点を含む点群を抽出して、抽出された点群に対して主成分分析を行う、請求項3に記載の情報処理装置。
  8.  前記指定位置を調整するためのオフセット量を決定するオフセット量決定部をさらに備え、
     前記位置決定部は、前記オフセット量が決定された場合には、決定されたオブセット量により前記指定位置を調整した上で、前記指定位置を決定する、請求項1に記載の情報処理装置。
  9.  前記オフセット量決定部は、表示画面における所定の位置と、決定された前記指定位置とに基づいて、前記オフセット量を決定する、請求項8に記載の情報処理装置。
  10.  前記オフセット量決定部は、前記位置指定に関するオブジェクトに対応するベクトルである、主成分分析の結果得られる第1主成分のベクトルと、前記位置指定に関するオブジェクトに対応する所定の位置から前記表示画面における所定の位置方向のベクトルとの差に基づいて、前記オフセット量を決定する、請求項8に記載の情報処理装置。
  11.  前記オフセット量決定部は、操作者の認識結果に基づいて、操作者ごとに、選択的に前記オフセット量を決定する、請求項8に記載の情報処理装置。
  12.  前記表示画面側から前記表示画面に対向する方向が撮像されることにより生成されたステレオ画像から、前記距離画像を生成する距離画像生成部をさらに備え、
     前記ポイントクラウド生成部は、前記ステレオ画像から生成された前記距離画像からポイントクラウドを生成する、請求項1に記載の情報処理装置。
  13.  前記ポイントクラウド生成部は、実スケールでポイントクラウドを生成する、請求項1に記載の情報処理装置。
  14.  表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するステップと、
     生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、前記表示画面において指定された指定位置を決定するステップと、
     を有する、情報処理装置により実行される情報処理方法。
  15.  表示画面からオブジェクトまでの距離に相当する距離が表される距離画像からポイントクラウドを生成するステップ、
     生成されたポイントクラウドに対して主成分分析を行い、分析結果に基づいて位置指定に関するオブジェクトに対応するベクトルを検出し、前記表示画面において指定された指定位置を決定するステップ、
     をコンピュータに実行させるためのプログラム。
     
PCT/JP2014/081561 2014-02-10 2014-11-28 情報処理装置、情報処理方法、およびプログラム WO2015118756A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14881829.7A EP3106968B1 (en) 2014-02-10 2014-11-28 Information processing device, information processing method, and program
JP2015561166A JP6447521B2 (ja) 2014-02-10 2014-11-28 情報処理装置、情報処理方法、およびプログラム
US15/115,311 US10088910B2 (en) 2014-02-10 2014-11-28 Information processing apparatus and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-023348 2014-02-10
JP2014023348 2014-02-10

Publications (1)

Publication Number Publication Date
WO2015118756A1 true WO2015118756A1 (ja) 2015-08-13

Family

ID=53777573

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/081561 WO2015118756A1 (ja) 2014-02-10 2014-11-28 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US10088910B2 (ja)
EP (1) EP3106968B1 (ja)
JP (1) JP6447521B2 (ja)
WO (1) WO2015118756A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3610355B1 (en) * 2017-04-11 2021-10-20 Roundfire, Inc. Natural language based computer animation
US11462054B2 (en) * 2019-10-21 2022-10-04 Analog Devices International Unlimited Company Radar-based indoor localization and tracking system
EP4083757A1 (en) * 2020-10-19 2022-11-02 ameria AG Touchless input interface for an electronic display using multiple sensors
CN112782664B (zh) * 2021-02-22 2023-12-12 四川八维九章科技有限公司 一种基于毫米波雷达的卫生间跌倒检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328735A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd ハンドポインティング入力装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2012003723A (ja) * 2010-06-21 2012-01-05 Nippon Telegr & Teleph Corp <Ntt> 動作解析装置、動作解析方法、およびプログラム
JP2013205983A (ja) 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152622A (ja) * 2006-12-19 2008-07-03 Mitsubishi Electric Corp ポインティング装置
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
CN102812416B (zh) * 2010-06-17 2015-10-07 松下电器(美国)知识产权公司 指示输入装置、指示输入方法、程序、记录介质以及集成电路
JP5783828B2 (ja) * 2010-08-25 2015-09-24 キヤノン株式会社 情報処理装置およびその制御方法
KR101646616B1 (ko) * 2010-11-30 2016-08-12 삼성전자주식회사 객체 제어 장치 및 방법
CN105378593B (zh) * 2012-07-13 2019-03-01 索尼深度传感解决方案股份有限公司 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统
JP5963353B2 (ja) * 2012-08-09 2016-08-03 株式会社トプコン 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
JP6270495B2 (ja) * 2014-01-16 2018-01-31 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328735A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd ハンドポインティング入力装置
JP2004246856A (ja) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology インタフェース装置
JP2012003723A (ja) * 2010-06-21 2012-01-05 Nippon Telegr & Teleph Corp <Ntt> 動作解析装置、動作解析方法、およびプログラム
JP2013205983A (ja) 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム

Also Published As

Publication number Publication date
EP3106968B1 (en) 2019-09-25
EP3106968A4 (en) 2017-08-30
EP3106968A1 (en) 2016-12-21
JP6447521B2 (ja) 2019-01-09
US20170003752A1 (en) 2017-01-05
US10088910B2 (en) 2018-10-02
JPWO2015118756A1 (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
US9865062B2 (en) Systems and methods for determining a region in an image
EP3241093B1 (en) Electronic system with gesture calibration mechanism and method of operation thereof
EP3395066B1 (en) Depth map generation apparatus, method and non-transitory computer-readable medium therefor
CN104380338B (zh) 信息处理器以及信息处理方法
WO2013161182A1 (en) Image processing apparatus, image processing method, and program
EP2590110B1 (en) Depth image compression
KR20160019512A (ko) 점 특징 및 선 특징을 사용한 강력한 추적
CN107438812B (zh) 信息处理设备、信息处理方法和程序
US11816848B2 (en) Resilient dynamic projection mapping system and methods
JP6447521B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10528145B1 (en) Systems and methods involving gesture based user interaction, user interface and/or other features
CN108885496B (zh) 信息处理装置、信息处理方法和程序
US20130321404A1 (en) Operating area determination method and system
CN102736728A (zh) 三维立体虚拟物体的操控方法、操控系统及处理装置
WO2013104315A1 (zh) 一种为发射光源的运动轨迹映射其应用轨迹的方法与系统
TWI465984B (zh) 用於決定控制域中之控制輸出的方法與控制裝置
WO2018078986A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US9886085B2 (en) Image processing apparatus, image processing method, and program
JP2017103619A (ja) 制御装置、制御方法、およびプログラム
CN106663412B (zh) 信息处理设备、信息处理方法及程序
WO2016129154A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
JP2017041125A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6762544B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
KR20140137148A (ko) 단일 카메라를 이용한 3차원 입력장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14881829

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015561166

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014881829

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014881829

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15115311

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE