JP7447956B2 - Processing device, attitude analysis system, and program - Google Patents

Processing device, attitude analysis system, and program Download PDF

Info

Publication number
JP7447956B2
JP7447956B2 JP2022150449A JP2022150449A JP7447956B2 JP 7447956 B2 JP7447956 B2 JP 7447956B2 JP 2022150449 A JP2022150449 A JP 2022150449A JP 2022150449 A JP2022150449 A JP 2022150449A JP 7447956 B2 JP7447956 B2 JP 7447956B2
Authority
JP
Japan
Prior art keywords
principal component
unit
point group
processing device
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022150449A
Other languages
Japanese (ja)
Other versions
JP2022171943A (en
Inventor
源洋 中川
幹也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JP2022171943A publication Critical patent/JP2022171943A/en
Application granted granted Critical
Publication of JP7447956B2 publication Critical patent/JP7447956B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、処理装置、姿勢解析システム、及びプログラムに関する。 The present invention relates to a processing device, a posture analysis system, and a program.

物体を検出する技術として、例えば、下記の特許文献1に記載された技術があるが、物体を検出する技術は、物体の全部又は一部の形状あるいは姿勢を高精度に検出することが望まれている。 As a technology for detecting an object, for example, there is a technology described in Patent Document 1 below, but it is desired that the technology for detecting an object detects the shape or posture of all or part of the object with high precision. ing.

特開2007-288682号公報Japanese Patent Application Publication No. 2007-288682

本発明の態様に従えば、第1点群データを取得する取得部と、第1点群データを主成分分析することにより主成分方向を決定し、主成分方向複数の位置において、主成分方向に交差する領域内に存在する各点を抽出した第2点群データが示す形状の特徴量を算出する算出部と、主成分方向の複数の位置における特徴量の変化を判定する判定部と、を備える処理装置が提供される。 According to an aspect of the present invention, the acquisition unit that acquires the first point cloud data determines the principal component direction by performing principal component analysis on the first point cloud data, and determines the principal component direction at a plurality of positions in the principal component direction. a calculation unit that calculates the feature amount of the shape indicated by the second point cloud data obtained by extracting each point existing in the area intersecting the direction; and a determination unit that determines the change in the feature amount at a plurality of positions in the principal component direction. A processing device is provided.

本発明の態様に従えば、上記態様の処理装置と、物体までの距離情報を検出し、距離情報から点群データを生成する検出部と、を備える姿勢解析システムが提供される。 According to an aspect of the present invention, there is provided an attitude analysis system including the processing device of the above aspect and a detection unit that detects distance information to an object and generates point cloud data from the distance information.

本発明の態様に従えば、コンピュータに実施させるプログラムであって、第1点群データを取得し、第1点群データを主成分分析することにより主成分方向を決定し、主成分方向複数の位置において、主成分方向に交差する領域内に存在する各点を抽出した第2点群データが示す形状の特徴量を算出し、主成分方向の複数の位置における特徴量の変化を判定する、処理を実行させるプログラムが提供される。 According to an aspect of the present invention, there is provided a program that is executed by a computer, which acquires first point cloud data, determines a principal component direction by principal component analysis of the first point cloud data, and determines a plurality of principal component directions. At the position, calculate the feature amount of the shape indicated by the second point cloud data extracted from each point existing in the area intersecting the principal component direction, and determine the change in the feature amount at multiple positions in the principal component direction. , a program for executing the process is provided.

第1実施形態に係る処理装置(姿勢解析システム)の一例を示す図である。FIG. 1 is a diagram showing an example of a processing device (posture analysis system) according to a first embodiment. 本実施形態に係る位置検出部(点群取得部)の一例を示す図である。FIG. 3 is a diagram illustrating an example of a position detection unit (point cloud acquisition unit) according to the present embodiment. 図1に示す処理装置の一例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an example of the processing device shown in FIG. 1. FIG. 本実施形態に係る基準点群データに対して第1領域を設定した図である。FIG. 3 is a diagram in which a first region is set for the reference point group data according to the present embodiment. 本実施形態に係る第1領域の第1点群データから第1主成分を算出し、第2領域を設定した図である。FIG. 6 is a diagram in which the first principal component is calculated from the first point cloud data of the first region and the second region is set according to the present embodiment. 本実施形態に係る第2点群データについて最短経路を算出した一例を示す図である。It is a figure which shows an example of calculating the shortest path about the 2nd point group data based on this embodiment. 本実施形態に係る第2点群データについて最短経路を算出した他の例を示す図である。It is a figure which shows the other example which calculated the shortest path about the 2nd point cloud data based on this embodiment. 本実施形態に係る第1主成分の方向の位置と最短経路長との関係を示すグラフ図である。FIG. 3 is a graph diagram showing the relationship between the position in the direction of the first principal component and the shortest path length according to the present embodiment. 本実施形態に係る新たな第1領域から第2領域を設定した図である。It is a diagram in which a second area is set from a new first area according to the present embodiment. 本実施形態に係る新たな第2領域について第1主成分の方向の位置と最短経路長との関係を示すグラフ図である。FIG. 7 is a graph diagram showing the relationship between the position in the direction of the first principal component and the shortest path length for a new second region according to the present embodiment. (A)及び(B)は、本実施形態に係る第2生成部により物体の姿勢を推定する一例を示す図である。(A) and (B) are diagrams illustrating an example of estimating the posture of an object by the second generation unit according to the present embodiment. 本実施形態に係る処理方法の一例を示すフローチャートである。3 is a flowchart illustrating an example of a processing method according to the present embodiment. 本実施形態に係る処理方法の他の例を示すフローチャートである。7 is a flowchart showing another example of the processing method according to the present embodiment. 図13に続いてに係る処理方法の他の例を示すフローチャートである。14 is a flowchart showing another example of the processing method following FIG. 13. FIG. 第2実施形態に係る処理装置の一例を示す図である。It is a figure showing an example of a processing device concerning a 2nd embodiment. 第3実施形態に係る処理装置の一例を示す図である。It is a figure showing an example of a processing device concerning a 3rd embodiment. 本実施形態に係る表示部に表示される画面の一例を示す図である。It is a figure showing an example of the screen displayed on the display part concerning this embodiment. 本実施形態に係る表示部に表示される画面の一例を示す図である。It is a figure showing an example of the screen displayed on the display part concerning this embodiment. 本実施形態に係る表示部に表示される画面の一例を示す図である。It is a figure showing an example of the screen displayed on the display part concerning this embodiment. 本実施形態に係る表示部に表示される画面の一例を示す図である。It is a figure showing an example of the screen displayed on the display part concerning this embodiment. 本実施形態に係る表示部に表示される画面の一例を示す図である。It is a figure showing an example of the screen displayed on the display part concerning this embodiment. 本実施形態に係る表示部に表示される画面の一例を示す図である。It is a figure showing an example of the screen displayed on the display part concerning this embodiment. 本実施形態に係る表示部に表示される画面の一例を示す図である。It is a figure showing an example of the screen displayed on the display part concerning this embodiment.

以下、実施形態について図面を参照しながら説明する。図面においては実施形態を説明するため、一部分を大きく又は強調して表すなど適宜縮尺を変更して表現している。図面においては、XYZ座標系を用いて図中の方向を説明する図がある。このXYZ座標系においては、水平面に平行な平面をXZ平面とする。このXZ平面において人体Mの肩幅の方向をX方向と表記し、X方向に直交する方向をZ方向と表記する。XZ平面に垂直な方向はY方向と表記する。X方向、Y方向及びZ方向のそれぞれは、図中の矢印の指す方向が+方向であり、矢印の指す方向とは反対の方向が-方向であるとして説明する。 Hereinafter, embodiments will be described with reference to the drawings. In the drawings, in order to explain the embodiments, the scale of the drawings is changed as appropriate, such as by enlarging or emphasizing some parts. In the drawings, there are diagrams for explaining directions in the drawings using an XYZ coordinate system. In this XYZ coordinate system, a plane parallel to the horizontal plane is defined as an XZ plane. In this XZ plane, the direction of the shoulder width of the human body M is referred to as the X direction, and the direction perpendicular to the X direction is referred to as the Z direction. The direction perpendicular to the XZ plane is expressed as the Y direction. The X direction, Y direction, and Z direction will be described assuming that the direction indicated by the arrow in the figure is the + direction, and the direction opposite to the direction indicated by the arrow is the - direction.

[第1実施形態]
第1実施形態について説明する。図1は、第1実施形態に係る処理装置1Aの一例を示す図である。図1は、実施形態に係る姿勢解析システムSYSの一例についても示している。処理装置1A及び姿勢解析システムSYSは、物体Mの姿勢情報及び形状情報の一方又は双方を生成する。本実施形態においては、物体Mとして人体を例に挙げて説明するが、物体Mが、例えば動物、人型又は人以外の動物型のロボット、若しくは動物型以外のロボットであってもよい。以下、物体Mを人体Mと称して説明する。
[First embodiment]
A first embodiment will be described. FIG. 1 is a diagram showing an example of a processing device 1A according to the first embodiment. FIG. 1 also shows an example of the posture analysis system SYS according to the embodiment. The processing device 1A and the posture analysis system SYS generate one or both of posture information and shape information of the object M. In this embodiment, a human body will be described as an example of the object M, but the object M may be, for example, an animal, a humanoid or a non-human animal type robot, or a non-animal type robot. Hereinafter, the object M will be described as a human body M.

人体Mは、後述する位置検出部2の検出の対象となる対象領域AR(例、位置検出部2の検出領域、視野)において、所定の静止姿勢(例、指定されたポーズ、起立した状態)の状態であってもよいし、移動(例、変化、動作)している状態であってもよい。人体Mは、例えば、移動に伴って姿勢と形状との一方又は双方が変化する。移動する人体Mは、例えば、バレエ、フェンシング、野球、サッカー、ゴルフ、剣道、アメリカンフットボール、アイスホッケー、又は体操などのスポーツ、ランニング、エクササイズ、ヨガ、ボディビル、ファッションショーなどのウォーキング又はポージング、ゲーム、トレーニング、ダンス、伝統芸能、人物認証、若しくは仕事において動作する人体である。人体Mには、人体Mに付帯する別の物体(例、衣類、装着物、運動器具、防具)を含んでもよい。 The human body M is in a predetermined static posture (e.g., a specified pose, a standing state) in a target area AR (e.g., detection area of the position detection unit 2, field of view) that is a detection target of the position detection unit 2, which will be described later. It may be in the state of , or it may be in the state of moving (eg, changing, moving). For example, the human body M changes one or both of its posture and shape as it moves. The moving human body M is, for example, a sport such as ballet, fencing, baseball, soccer, golf, kendo, American football, ice hockey, or gymnastics, walking or posing, such as running, exercise, yoga, body building, a fashion show, or a game. , training, dance, traditional performing arts, person recognition, or the human body moving during work. The human body M may include other objects attached to the human body M (eg, clothing, attachments, exercise equipment, protective equipment).

処理装置1A(又は姿勢解析システムSYS)は、例えば、形状評価装置、動作検出装置、運動評価装置、モーションキャプチャ装置、動作検出システム、運動支援システムなどである。姿勢解析システムSYSは、処理装置1Aと、位置検出部2とを含む。位置検出部2は、一例として点群取得部である。姿勢解析システムSYSは、複数の処理装置1Aあるいは複数の位置検出部2(例、点群取得部)を備えてもよい。本実施形態の処理装置1A(又は姿勢解析システムSYS)は、2つの位置検出部2を備えている。なお、2つの位置検出部2は、互いに同一の構成を有しているが、互いに異なる構成を有していてもよい。2つの位置検出部2の一方は、人体Mの表面側(例、+Z側)に視点が設定され、他方は、人体Mの裏面側(例、-Z側)に視点が設定される。2つの位置検出部2は、人体Mを中心として対称に配置されてもよいし、非対称に配置されてもよい。そして、処理装置1A(又は姿勢解析システムSYS)は、人体Mの表面から得られた基準点群データPFに基づいて、人体Mの形状又は姿勢の情報である三次元データを生成する。基準点群データPFは、人体Mの形状(例、三次元形状)を表す情報である。 The processing device 1A (or posture analysis system SYS) is, for example, a shape evaluation device, a motion detection device, a motion evaluation device, a motion capture device, a motion detection system, an exercise support system, or the like. Posture analysis system SYS includes a processing device 1A and a position detection section 2. The position detection unit 2 is, for example, a point cloud acquisition unit. The posture analysis system SYS may include a plurality of processing devices 1A or a plurality of position detection units 2 (eg, point cloud acquisition units). The processing device 1A (or attitude analysis system SYS) of this embodiment includes two position detection units 2. Note that although the two position detection units 2 have the same configuration, they may have different configurations. One of the two position detection units 2 has a viewpoint set on the front side of the human body M (eg, +Z side), and the other has a viewpoint set on the back side of the human body M (eg, -Z side). The two position detection units 2 may be arranged symmetrically with respect to the human body M, or may be arranged asymmetrically. Then, the processing device 1A (or posture analysis system SYS) generates three-dimensional data that is information about the shape or posture of the human body M based on the reference point group data PF obtained from the surface of the human body M. The reference point group data PF is information representing the shape (eg, three-dimensional shape) of the human body M.

処理装置1Aは、図1に示すように、生成部11と、第1生成部12と、第2生成部13と、算出部14と、記憶部15とを備える。処理装置1Aの一部又は全体は、携帯可能な装置(例、情報端末、スマートフォン、タブレット、カメラ付き携帯電話、ウェアラブル端末)でもよい。また、処理装置1Aの一部又は全体は、据え置き型の装置(例、デスクトップ型パソコン)でもよい。 The processing device 1A includes a generation section 11, a first generation section 12, a second generation section 13, a calculation section 14, and a storage section 15, as shown in FIG. Part or all of the processing device 1A may be a portable device (eg, an information terminal, a smartphone, a tablet, a mobile phone with a camera, a wearable terminal). Further, part or all of the processing device 1A may be a stationary device (eg, a desktop computer).

次に、処理装置1Aを構成する各部について説明する。生成部11は、人体M上の各点の位置情報である基準点群データPF(例、図4参照)から、第1領域R1内(例、図5参照)の各点を抽出して第1点群データP1を生成する。算出部14は、生成部11が生成した第1点群データP1を主成分分析することにより第1点群データP1における第1主成分D1(例、図5参照)の方向を算出する。そして、第1生成部12は、第1点群データP1から、算出部14が算出した第1主成分D1の方向に交差する面である平面RS2A(例、図5参照)を有する第2領域R2内(例、図5参照)の点を抽出して第2点群データP2を生成する。第2生成部13は、第1生成部12が生成した第2点群データP2により人体Mの情報を生成する。これら生成部11、第1生成部12、第2生成部13、及び算出部14の詳細については後述する。なお、図4に示す第1領域R1は、基準点群データPFで構成される基準領域より小さい領域である。 Next, each part constituting the processing device 1A will be explained. The generation unit 11 extracts each point within the first region R1 (for example, see FIG. 5) from the reference point group data PF (for example, see FIG. 4), which is positional information of each point on the human body M, and One point group data P1 is generated. The calculation unit 14 calculates the direction of the first principal component D1 (eg, see FIG. 5) in the first point cloud data P1 by principal component analysis of the first point cloud data P1 generated by the generation unit 11. Then, the first generation unit 12 generates a second area having a plane RS2A (for example, see FIG. 5), which is a plane intersecting the direction of the first principal component D1 calculated by the calculation unit 14, from the first point group data P1. Points within R2 (eg, see FIG. 5) are extracted to generate second point group data P2. The second generation unit 13 generates information about the human body M using the second point group data P2 generated by the first generation unit 12. Details of the generation section 11, first generation section 12, second generation section 13, and calculation section 14 will be described later. Note that the first area R1 shown in FIG. 4 is a smaller area than the reference area formed by the reference point group data PF.

記憶部15は、例えば、揮発性又は不揮発性のメモリ、ハードディスク(HDD)、ソリッドステートドライブ(SSD)などである。処理装置1A(又は姿勢解析システムSYS)は、表示部3と、入力部4とを備える。表示部3は、処理装置1Aから出力される画像のデータに基づいて、この画像を表示する。例えば、処理装置1Aは、第2生成部13が生成した人体Mに関するモデル画像又は人体Mに関する推定画像のデータを表示部3に出力する。そして、表示部3は、処理装置1Aから出力された推定画像のデータに基づいて、推定画像を表示する。表示部3は、例えば、液晶ディスプレイ、有機ELディスプレイを含む。 The storage unit 15 is, for example, a volatile or nonvolatile memory, a hard disk (HDD), a solid state drive (SSD), or the like. The processing device 1A (or posture analysis system SYS) includes a display section 3 and an input section 4. The display unit 3 displays this image based on the image data output from the processing device 1A. For example, the processing device 1A outputs data of a model image related to the human body M or an estimated image related to the human body M generated by the second generation unit 13 to the display unit 3. The display unit 3 then displays the estimated image based on the estimated image data output from the processing device 1A. The display unit 3 includes, for example, a liquid crystal display or an organic EL display.

入力部4は、処理装置1Aに対する各種情報(例、データ、指令)の入力に利用される。ユーザは、入力部4を操作することによって、処理装置1Aに対して各種情報を入力可能である。入力部4は、例えば、キーボード、マウス、トラックボール、タッチパッド、及び音声入力デバイス(例、マイク)の少なくとも一つを含む。なお、表示部3及び入力部4は、タッチパネルでもよい。処理装置1A(又は姿勢解析システムSYS)は、表示部3を備えなくてもよい。例えば、処理装置1Aは、画像等のデータを、通信を介して他の表示部又は表示装置へ出力し、この表示部等が画像を表示してもよい。また、処理装置1A(姿勢解析システムSYS)は、入力部4を備えなくてもよい。例えば、処理装置1Aは、各種の指令、情報が通信を介して入力される形態でもよい。 The input unit 4 is used to input various information (eg, data, commands) to the processing device 1A. By operating the input unit 4, the user can input various information to the processing device 1A. The input unit 4 includes, for example, at least one of a keyboard, a mouse, a trackball, a touch pad, and an audio input device (eg, a microphone). Note that the display section 3 and the input section 4 may be touch panels. The processing device 1A (or the attitude analysis system SYS) does not need to include the display unit 3. For example, the processing device 1A may output data such as an image to another display unit or display device via communication, and this display unit or the like may display the image. Further, the processing device 1A (posture analysis system SYS) does not need to include the input section 4. For example, the processing device 1A may be configured to receive various commands and information via communication.

位置検出部2は、人体Mの位置情報を検出する。位置検出部2は、人体Mの位置情報として、人体Mの表面上の各点の三次元座標を含む点群データを検出する。位置検出部2は、図1に示すように、検出部21と、基準点群データ生成部22と、記憶部23とを備える。記憶部23は、例えば、揮発性又は不揮発性のメモリ、ハードディスク(HDD)、ソリッドステートドライブ(SSD)などである。なお、位置検出部2は、記憶部23を備えなくてもよい。 The position detection unit 2 detects position information of the human body M. The position detection unit 2 detects point cloud data including three-dimensional coordinates of each point on the surface of the human body M as position information of the human body M. As shown in FIG. 1, the position detection section 2 includes a detection section 21, a reference point group data generation section 22, and a storage section 23. The storage unit 23 is, for example, a volatile or nonvolatile memory, a hard disk (HDD), a solid state drive (SSD), or the like. Note that the position detection section 2 does not need to include the storage section 23.

検出部21は、例えば携帯型の装置(携帯機器)の少なくとも一部である。検出部21は、据え置き型の装置の少なくとも一部でもよい。基準点群データ生成部22は、処理装置1Aの外部の装置に設けられてもよい(例、外部接続されてもよい)。例えば、位置検出部2は、処理装置1Aの外部の装置であって、検出部21と基準点群データ生成部22と記憶部23とを内蔵してもよい。位置検出部2の一部又は全体は、携帯可能な装置(例、情報端末、スマートフォン、タブレット、カメラ付き携帯電話、ウェアラブル端末)でもよい。また、位置検出部2の一部又は全体は、据え置き型の装置(例、定点カメラ)でもよい。 The detection unit 21 is, for example, at least a part of a portable device (portable device). The detection unit 21 may be at least a part of a stationary device. The reference point group data generation unit 22 may be provided in a device external to the processing device 1A (eg, may be externally connected). For example, the position detection unit 2 may be a device external to the processing device 1A, and may include a detection unit 21, a reference point group data generation unit 22, and a storage unit 23. Part or all of the position detection unit 2 may be a portable device (eg, an information terminal, a smartphone, a tablet, a mobile phone with a camera, a wearable terminal). Further, a part or the whole of the position detection unit 2 may be a stationary device (eg, a fixed point camera).

図2は、位置検出部2(例、点群取得部)の検出部21の一例を示す図である。検出部21は、人体Mの位置情報としてデプスを検出する。検出部21は、デプスセンサ(例、デプスカメラ)を含む。検出部21は、所定の点から、対象領域ARに配置される人体Mの表面における各点までのデプス(例、位置情報、距離、奥行き、深度)を検出する。所定の点は、例えば、検出部21による検出の基準になる位置の点(例、視点、検出元の点、検出部21の位置を表す点、後述する撮像素子26の画素の位置)である。 FIG. 2 is a diagram showing an example of the detection unit 21 of the position detection unit 2 (eg, point cloud acquisition unit). The detection unit 21 detects the depth as position information of the human body M. The detection unit 21 includes a depth sensor (eg, a depth camera). The detection unit 21 detects the depth (eg, position information, distance, depth, depth) from a predetermined point to each point on the surface of the human body M placed in the target region AR. The predetermined point is, for example, a point at a position that serves as a reference for detection by the detection unit 21 (e.g., a viewpoint, a detection source point, a point representing the position of the detection unit 21, a pixel position of the image sensor 26 described later). .

検出部21は、照射部24、光学系25、及び撮像素子26を備える。照射部24は、対象領域AR(空間、検出領域)に光La(例、パターン光、照射光、パルス光)を照射(例、投影)する。光学系25は、例えば結像光学系(撮像光学系)を含む。撮像素子26は、例えば、CMOSイメージセンサあるいはCCDイメージセンサを含む。撮像素子26は、2次元的に配列された複数の画素を有する。撮像素子26は、光学系25を介して、人体Mを含む対象領域ARを撮像する。撮像素子26は、光Laの照射によって対象領域ARの人体Mから放射される光Lb(例、反射光、戻り光、透過光)を検出する。光Lbは、例えば赤外光を含む。 The detection unit 21 includes an irradiation unit 24, an optical system 25, and an image sensor 26. The irradiation unit 24 irradiates (eg, projects) light La (eg, pattern light, irradiation light, pulsed light) onto the target area AR (space, detection area). The optical system 25 includes, for example, an imaging optical system (imaging optical system). The image sensor 26 includes, for example, a CMOS image sensor or a CCD image sensor. The image sensor 26 has a plurality of pixels arranged two-dimensionally. The image sensor 26 images the target area AR including the human body M via the optical system 25. The image sensor 26 detects light Lb (eg, reflected light, return light, transmitted light) emitted from the human body M in the target area AR by irradiation with the light La. The light Lb includes, for example, infrared light.

検出部21は、照射部24から照射される光Laのパターン(例、強度分布)と、撮像素子26によって検出された光Lbのパターン(例、強度分布、撮像画像)とに基づいて、撮像素子26の各画素に対応する対象領域AR上の点(この場合、人体M上の点)から、撮像素子26の各画素までのデプスを検出する。検出部21は、その検出結果として、対象領域AR(例、人体M)におけるデプスの分布を表したデプスマップ(例、デプス画像、奥行き情報、距離情報)を例えば基準点群データ生成部22(図1参照)に出力する。 The detection unit 21 performs imaging based on the pattern (e.g., intensity distribution) of the light La emitted from the irradiation unit 24 and the pattern (e.g., intensity distribution, captured image) of the light Lb detected by the image sensor 26. The depth from a point on the target area AR corresponding to each pixel of the element 26 (in this case, a point on the human body M) to each pixel of the image sensor 26 is detected. As the detection result, the detection unit 21 converts a depth map (e.g., depth image, depth information, distance information) representing the depth distribution in the target area AR (e.g., human body M) into the reference point cloud data generation unit 22 ( (see Figure 1).

なお、検出部21は、TOF(time of flight)法によってデプスを検出するデバイスでもよい。検出部21は、TOF法以外の手法でデプスを検出するデバイスでもよい。検出部21は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによってデプスを検出してもよい。検出部21は、例えば、位相差センサを含み、位相差法によってデプスを検出してもよい。検出部21は、例えば、DFD(depth from defocus)法によってデプスを検出してもよい。 Note that the detection unit 21 may be a device that detects depth using a TOF (time of flight) method. The detection unit 21 may be a device that detects depth using a method other than the TOF method. The detection unit 21 may include, for example, a laser scanner (eg, a laser range finder), and may detect the depth by laser scanning. The detection unit 21 may include, for example, a phase difference sensor, and may detect the depth using a phase difference method. The detection unit 21 may detect the depth using a DFD (depth from defocus) method, for example.

なお、検出部21は、赤外光あるいは赤外光以外の光(例、可視光)を人体Mに照射し、人体Mから出射する光(人体Mで反射する光、例、可視光)を検出してもよい。検出部21は、照射部24から照射される光Laに代えて、例えば音波(例、超音波)などのエネルギー波を用いてもよい。検出部21は、例えばステレオカメラなどを含み、複数の視点から人体Mを検出(例、撮像)してもよい。検出部21は、複数の視点から人体Mを撮像した撮像画像を用いて、三角測量によってデプスを検出してもよい。検出部21は、光学的な手法以外の手法(例、超音波によるスキャン)でデプスを検出してもよい。 Note that the detection unit 21 irradiates the human body M with infrared light or light other than infrared light (e.g., visible light), and detects the light emitted from the human body M (light reflected by the human body M, e.g., visible light). May be detected. The detection unit 21 may use energy waves such as sound waves (eg, ultrasonic waves) instead of the light La irradiated from the irradiation unit 24 . The detection unit 21 may include, for example, a stereo camera, and may detect (eg, image) the human body M from a plurality of viewpoints. The detection unit 21 may detect the depth by triangulation using captured images of the human body M from a plurality of viewpoints. The detection unit 21 may detect the depth using a method other than an optical method (eg, ultrasonic scanning).

図1に戻り、検出部21の検出結果(例、デプスマップ)は、記憶部23に記憶されてもよいし、記憶されなくてもよい。基準点群データ生成部22は、検出部21が検出したデプスに基づいて、人体Mの位置情報として基準点群データPFを生成する。基準点群データ生成部22は、人体Mの位置情報として基準点群データPFを生成する点群処理を実行する。 Returning to FIG. 1, the detection result (eg, depth map) of the detection unit 21 may or may not be stored in the storage unit 23. The reference point group data generation unit 22 generates reference point group data PF as position information of the human body M based on the depth detected by the detection unit 21. The reference point group data generation unit 22 executes point group processing to generate reference point group data PF as position information of the human body M.

基準点群データPFは、対象領域ARにおける人体M上の複数の点の3次元座標を含む。基準点群データPFは、人体Mの周囲の物体(例、壁、床)上の複数の点の3次元座標を含んでもよい。基準点群データ生成部22は、検出部21が検出した位置情報(例、デプス)に基づいて、人体Mに関する基準点群データPFを算出する。基準点群データ生成部22は、記憶部23に記憶されている検出部21の検出結果を読み出して、基準点群データPFを算出する。なお、基準点群データ生成部22は、人体Mのモデル情報(例、形状情報)として基準点群データPFを生成してもよい。 The reference point group data PF includes three-dimensional coordinates of a plurality of points on the human body M in the target region AR. The reference point group data PF may include three-dimensional coordinates of a plurality of points on objects around the human body M (eg, walls, floors). The reference point group data generation unit 22 calculates reference point group data PF regarding the human body M based on the position information (eg, depth) detected by the detection unit 21. The reference point group data generation section 22 reads out the detection results of the detection section 21 stored in the storage section 23 and calculates the reference point group data PF. Note that the reference point group data generation unit 22 may generate the reference point group data PF as model information (eg, shape information) of the human body M.

検出部21は、例えば、検出結果に相当するデプスマップ(例、デプス画像)を出力する。このデプスマップは、検出部21によるデプスの測定値の空間分布を表す情報(例、画像)である。デプスマップは、対象領域ARの各点におけるデプスを階調値で表したグレースケールの画像であってもよい。デプスマップがグレースケールの画像である場合には、階調値が相対的に高い部分(例、白い部分、明るい部分)は、デプスが相対的に小さい部分(位置検出部2から相対的に近い部分)である。デプスマップにおいて、階調値が相対的に低い部分(例、黒い部分、暗い部分)は、デプスが相対的に大きい部分(位置検出部2から相対的に遠い部分)である。なお、デプスマップは、例えばRGBの画像であってもよい。 The detection unit 21 outputs, for example, a depth map (eg, a depth image) corresponding to the detection result. This depth map is information (eg, an image) representing the spatial distribution of depth measurements by the detection unit 21. The depth map may be a grayscale image that represents the depth at each point in the target area AR using gradation values. When the depth map is a grayscale image, parts with relatively high gradation values (e.g. white parts, bright parts) are parts with relatively small depth (relatively close to position detection unit 2). part). In the depth map, parts with relatively low gradation values (eg, black parts, dark parts) are parts with relatively large depth (parts relatively far from the position detection unit 2). Note that the depth map may be, for example, an RGB image.

ここで、基準点群データ生成部22は、検出部21からデプスマップのデータを受け取り、又は記憶部23からデプスマップのデータを読み出し、基準点群データPFを算出する。記憶部23がない場合、基準点群データ生成部22は、検出部21からデプスマップのデータを受け取ったタイミングで(例、リアルタイムで)基準点群データPFを算出する。 Here, the reference point group data generation section 22 receives the depth map data from the detection section 21 or reads the depth map data from the storage section 23, and calculates the reference point group data PF. If the storage unit 23 is not provided, the reference point group data generation unit 22 calculates the reference point group data PF at the timing of receiving the depth map data from the detection unit 21 (for example, in real time).

例えば、基準点群データ生成部22は、デプスマップの各画素の階調値(デプスの測定値)に基づいて、各画素に相当する実空間上の点の3次元座標を算出する。以下の説明において、適宜、1つの点の三次元座標を点データと称する。基準点群データPFは、複数の点データを一組にしたデータである。基準点群データ生成部22は、例えば対象領域ARの全体の点群データに対してセグメント化、パターン認識などを施して、人体Mの基準点群データPFを抽出する。 For example, the reference point group data generation unit 22 calculates the three-dimensional coordinates of a point in real space corresponding to each pixel based on the gradation value (depth measurement value) of each pixel of the depth map. In the following description, the three-dimensional coordinates of one point will be referred to as point data as appropriate. The reference point group data PF is data that is a set of a plurality of point data. The reference point cloud data generation unit 22 extracts the reference point cloud data PF of the human body M by performing segmentation, pattern recognition, etc. on the entire point cloud data of the target area AR, for example.

また、基準点群データPFは、例えば、人体Mの少なくとも一部の輪郭(例、シルエット)を表す情報を含む。基準点群データPFは、例えば、人体Mの各関節の伸び又は曲がりが表れた情報を含む。基準点群データPFは、人体Mの各部の位置関係を特定可能な情報を含んでもよい。例えば、基準点群データPFは、人体Mの各部の位置情報(例、絶対位置、相対位置、座標)を含んでもよい。人体Mの各部の位置情報は、例えば、人体Mの末端部分(例、手先、足先、頭)の位置、及び、人体Mの関節(例、肩、肘、手首、膝)の位置の一方又は双方であってもよい。人体Mの各部の位置情報は、例えば、人体Mの末端部分と関節との間の部分(例、首、指)の位置、及び、人体Mの関節と関節との間の部分(例、前腕、上腕、大腿(上肢)、下腿(下肢))の位置の一方又は双方であってもよい。 Further, the reference point group data PF includes, for example, information representing the contour (eg, silhouette) of at least a portion of the human body M. The reference point group data PF includes, for example, information representing the extension or bending of each joint of the human body M. The reference point group data PF may include information that allows the positional relationship of each part of the human body M to be specified. For example, the reference point group data PF may include position information (eg, absolute position, relative position, coordinates) of each part of the human body M. The positional information of each part of the human body M may include, for example, the position of the end portion of the human body M (e.g., fingers, toes, head), or the position of the joints of the human body M (e.g., shoulders, elbows, wrists, knees). Or it may be both. The position information of each part of the human body M includes, for example, the position of the part between the end part of the human body M and the joint (e.g. neck, fingers), and the part between the joints of the human body M (e.g. the forearm). , upper arm, thigh (upper limb), lower leg (lower limb)).

対象領域ARにおける鉛直方向(Y方向)及び水平面内で直交する2方向(X方向、Z方向)は、既知の情報として例えば基準点群データ生成部22に予め与えられている。基準点群データ生成部22が生成した基準点群データPFにおいて、X、Y、Zの各方向は上記既知の情報に基づいて設定される。なお、人体Mが移動している場合、人体Mの移動方向は、対象領域AR(例、位置検出部2の視野)に対して所定の方向(例、X方向)に予め定められていてもよい。 The vertical direction (Y direction) and two orthogonal directions (X direction, Z direction) in the horizontal plane in the target area AR are given in advance to the reference point group data generation unit 22 as known information, for example. In the reference point group data PF generated by the reference point group data generation unit 22, the X, Y, and Z directions are set based on the above-mentioned known information. Note that when the human body M is moving, the moving direction of the human body M may be predetermined in a predetermined direction (e.g., the X direction) with respect to the target area AR (e.g., the field of view of the position detection unit 2). good.

図1において、位置検出部2は、処理装置1Aの外部に設けられている。処理装置1Aは、位置検出部2と無線又は有線により通信可能に接続される。位置検出部2は、基準点群データ生成部22が生成した基準点群データPFを処理装置1Aに出力する。処理装置1Aは、位置検出部2が出力した基準点群データPFを受け取って(受信して)処理する。 In FIG. 1, the position detection section 2 is provided outside the processing device 1A. The processing device 1A is communicably connected to the position detection unit 2 by wireless or wire. The position detection section 2 outputs the reference point group data PF generated by the reference point group data generation section 22 to the processing device 1A. The processing device 1A receives (receives) the reference point group data PF output from the position detection unit 2 and processes it.

なお、処理装置1Aは、位置検出部2からの基準点群データPFを、通信を介することなく取得してもよい。例えば、処理装置1Aは、不揮発性メモリなどの記憶媒体を介して、位置検出部2の基準点群データPFを取得してもよい。例えば、位置検出部2の記憶部23は、位置検出部2から取り外して携帯可能なカード型の補助記憶装置、又はUSBメモリなどの記憶媒体でもよい。処理装置1Aから取り外された記憶部15を位置検出部2に接続させて基準点群データPFを記憶部15に取り込み、この記憶部15を処理装置1Aに戻すことにより基準点群データPFを取得してもよい。 Note that the processing device 1A may acquire the reference point group data PF from the position detection unit 2 without using communication. For example, the processing device 1A may acquire the reference point group data PF of the position detection unit 2 via a storage medium such as a nonvolatile memory. For example, the storage unit 23 of the position detection unit 2 may be a card-type auxiliary storage device that is detachable from the position detection unit 2 and portable, or a storage medium such as a USB memory. The storage unit 15 removed from the processing device 1A is connected to the position detection unit 2 to import the reference point group data PF into the storage unit 15, and the storage unit 15 is returned to the processing device 1A to obtain the reference point group data PF. You may.

図3は、処理装置1Aの一例を示す機能ブロック図である。処理装置1Aは、図1に示した生成部11、第1生成部12、第2生成部13、算出部14、及び記憶部15の他に、第1設定部111と、特徴抽出部112と、第2設定部113と、特徴量算出部114と、判定部115と、再設定部116とを備える。記憶部15は、処理装置1Aで処理される元データ、及び処理装置1Aで処理されたデータ(例、処理装置1Aで生成されたデータ)を記憶する。記憶部15は、位置検出部2から受け取った基準点群データPFを記憶する。記憶部15は、基準点群データPFの元データとして、検出部21から出力されるデプスマップを記憶してもよい。この場合、位置検出部2の基準点群データ生成部22は、記憶部15からデプスマップのデータを読み出して基準点群データPFを算出してもよい。 FIG. 3 is a functional block diagram showing an example of the processing device 1A. In addition to the generation unit 11, first generation unit 12, second generation unit 13, calculation unit 14, and storage unit 15 shown in FIG. 1, the processing device 1A includes a first setting unit 111, a feature extraction unit 112, and , a second setting section 113, a feature value calculation section 114, a determination section 115, and a resetting section 116. The storage unit 15 stores original data processed by the processing device 1A and data processed by the processing device 1A (eg, data generated by the processing device 1A). The storage unit 15 stores the reference point group data PF received from the position detection unit 2. The storage unit 15 may store the depth map output from the detection unit 21 as the original data of the reference point group data PF. In this case, the reference point group data generation section 22 of the position detection section 2 may read the depth map data from the storage section 15 and calculate the reference point group data PF.

生成部11は、記憶部15に記憶されている基準点群データPFから、第1領域R1内の点を抽出して第1点群データP1を生成する第1点群データ生成処理を実行する。第1設定部111は、生成部11が第1点群データP1を生成するための第1領域R1を設定する第1領域設定処理を実行する。 The generation unit 11 executes a first point group data generation process of extracting points within the first region R1 from the reference point group data PF stored in the storage unit 15 and generating first point group data P1. . The first setting unit 111 executes a first area setting process for setting a first area R1 for the generation unit 11 to generate the first point group data P1.

図4は、人体Mの基準点群データPFを示し、基準点群データPFに対して第1領域R1を設定した図である。図4に示すように、第1領域R1は、三次元の空間である。第1設定部111は、例えば、表示部3に基準点群データPFの画像を表示させておき、その画像に対してユーザが入力部4で所望の範囲を指定することにより第1領域R1を設定する。表示部3に表示する基準点群データPFの画像は、ユーザによる入力部4の操作によって三次元的に向きを変えられるようにしてもよい。 FIG. 4 shows reference point group data PF of the human body M, and is a diagram in which a first region R1 is set for the reference point group data PF. As shown in FIG. 4, the first region R1 is a three-dimensional space. For example, the first setting unit 111 displays an image of the reference point group data PF on the display unit 3, and the user specifies a desired range on the input unit 4 to set the first region R1. Set. The image of the reference point group data PF displayed on the display section 3 may be configured to be able to three-dimensionally change its orientation by operating the input section 4 by the user.

また、第1設定部111は、基準点群データPFの画像のうちユーザが入力部4で指定したポイントを中心として、あらかじめ設定された範囲(例、X方向300mm、Y方向500mm、Z方向300mm)を第1領域R1として設定してもよい。このポイントを中心として設定する範囲は、記憶部15に記憶されていてもよい。また、記憶部15には複数の範囲が記憶されている状態で、ユーザがいずれかの範囲を第1領域R1として入力部4により指定する構成であってもよい。 In addition, the first setting unit 111 sets a preset range (for example, 300 mm in the X direction, 500 mm in the Y direction, 300 mm in the Z direction ) may be set as the first region R1. The range set around this point may be stored in the storage unit 15. Alternatively, a configuration may be adopted in which a plurality of ranges are stored in the storage unit 15 and the user specifies one of the ranges as the first area R1 using the input unit 4.

また、第1設定部111は、基準点群データPFの画像のうちユーザが入力部4で指定したポイントを中心として、人体Mの身長に対してY方向(例、鉛直方向)に所定の割合(例、20%)の範囲を第1領域R1として設定してもよい。所定の割合は、固定値として予め設定されていてもよいし、記憶部15に記憶されている複数の割合からユーザが入力部4により選択してもよいし、ユーザが所定の割合を入力部4により入力してもよい。 The first setting unit 111 also sets a predetermined ratio in the Y direction (e.g., vertical direction) to the height of the human body M, centering on the point specified by the user in the input unit 4 in the image of the reference point cloud data PF. (eg, 20%) may be set as the first region R1. The predetermined ratio may be set in advance as a fixed value, the user may select from a plurality of ratios stored in the storage unit 15 using the input unit 4, or the user may select the predetermined ratio using the input unit 4 may be input.

また、第1設定部111は、位置検出部2が取得している人体Mの画像データ(この場合、元データ)を用いて、この画像データに対してセグメンテーション(領域分割)を行い、ユーザが入力部4により複数の領域のうちいずれか1つ又は複数選択することで基準点群データPFに対応する部分が第1領域R1として設定されてもよい。複数の領域は、人体Mを構成する部分ごとに分割されてもよいし、規格化された領域ごとに分割されてもよい。 Further, the first setting unit 111 performs segmentation (area division) on this image data using the image data (original data in this case) of the human body M acquired by the position detection unit 2, so that the user can By selecting one or more of the plurality of regions using the input unit 4, a portion corresponding to the reference point group data PF may be set as the first region R1. The plurality of regions may be divided into parts constituting the human body M, or into standardized regions.

また、人体Mの画像データから、画像内における同一又は似た特徴量(例、グレースケール画像の階調、RGB画像の色、模様、柄)を持つグループごとに1つの領域としてセグメンテーションを行ってもよい。複数の領域は、例えば、人体Mの画像データから、人体Mを構成する部分をそれぞれパターンマッチング等により抽出して記憶部15に記憶されてもよい。また、複数の領域は、基準点群データPFの画像に重ねて表示部3に表示され、ユーザが入力部4によりいずれかの領域を選択することで第1領域R1が設定されてもよい。 In addition, from the image data of the human body M, segmentation is performed as one region for each group that has the same or similar features (e.g., gradation of a grayscale image, color, pattern, pattern of an RGB image) in the image. Good too. For example, the plurality of regions may be stored in the storage unit 15 by extracting portions of the human body M from image data of the human body M by pattern matching or the like. Further, the plurality of regions may be displayed on the display unit 3 in a superimposed manner on the image of the reference point group data PF, and the first region R1 may be set by the user selecting one of the regions using the input unit 4.

また、第1設定部111は、入力部4により人体Mの外形特徴Q(図4参照)を文字入力(例、腕、膝、太腿など)することにより、人体Mの外形特徴Qを含む範囲を第1領域R1として設定してもよい。外形特徴Qは、人体Mを構成する部分として、位置検出部2の検出部21が撮像した人体Mの撮像データあるいは基準点群データ生成部22が生成した基準点群データPFから抽出可能な人体Mの外形的な部分である。外形特徴Qは、人体Mにおいて、例えば、頭、首、肩、上腕、前腕、肘、手のひら、腰、臀部、股間、大腿、下腿、膝、かかとなどがある。外形特徴Qは、人体Mの表面において、例えば、所定方向に延びている、突出している、凹んでいる、くびれている、又は折れ曲がっているなど、形状上の特徴を有している。特徴抽出部112は、例えば、位置検出部2が取得している人体Mの画像データから、例えばパターンマッチング等により外形特徴Qを抽出してもよいし、基準点群データ生成部22が生成した基準点群データPFから、例えば近接する点どうしを結んだ際における三次元上の方向の変化から抽出してもよい。第1設定部111は、特徴抽出部112が抽出した外形特徴Qに基づいて、基準点群データPFのうち予め決められた範囲を第1領域R1として設定する。第1設定部111は、外形特徴Qを含める範囲(例、外形特徴Qを含む大きな領域)を人体Mの撮像データから判断して第1領域R1として設定してもよいし、外形特徴Qを中心としてX方向、Y方向、Z方向に予め決められた範囲(例、X方向300mm、Y方向500mm、Z方向300mm)を第1領域R1として設定してもよい。図4では、外形特徴Qとして「大腿」を抽出し、この「大腿」を含めて「臀部(股間)」の一部から「足首」までを含む範囲を第1領域R1として設定している。予め決められた範囲は、ユーザ等によって記憶部15に記憶されている。第1設定部111が設定した第1領域R1に関する第1領域データRD1は、記憶部15に記憶される。 Further, the first setting unit 111 includes the external shape features Q of the human body M by inputting characters (for example, arms, knees, thighs, etc.) of the external shape features Q of the human body M (see FIG. 4) using the input unit 4. The range may be set as the first region R1. The external shape feature Q is a part of the human body M that can be extracted from the imaging data of the human body M captured by the detection unit 21 of the position detection unit 2 or the reference point group data PF generated by the reference point group data generation unit 22. This is the external shape of M. In the human body M, the external shape features Q include, for example, the head, neck, shoulders, upper arms, forearms, elbows, palms, hips, buttocks, groins, thighs, lower legs, knees, heels, and the like. The external shape feature Q has a shape feature on the surface of the human body M, such as extending in a predetermined direction, protruding, concave, constricting, or bending. The feature extracting unit 112 may extract the external shape feature Q from the image data of the human body M acquired by the position detecting unit 2, for example, by pattern matching, or may extract the external shape feature Q from the image data of the human body M acquired by the position detecting unit 2. It may be extracted from the reference point group data PF, for example, from a change in three-dimensional direction when adjacent points are connected. The first setting unit 111 sets a predetermined range of the reference point group data PF as the first region R1 based on the external shape feature Q extracted by the feature extraction unit 112. The first setting unit 111 may determine a range including the external feature Q (for example, a large area including the external feature Q) from the imaging data of the human body M and set it as the first region R1, or may set the range including the external feature Q as the first region R1. A predetermined range in the X direction, Y direction, and Z direction (for example, 300 mm in the X direction, 500 mm in the Y direction, and 300 mm in the Z direction) may be set as the first region R1. In FIG. 4, "thigh" is extracted as the external feature Q, and a range including this "thigh" from a part of the "buttock (groin)" to the "ankle" is set as the first region R1. The predetermined range is stored in the storage unit 15 by a user or the like. The first region data RD1 regarding the first region R1 set by the first setting section 111 is stored in the storage section 15.

生成部11は、第1設定部111が設定した第1領域R1内に存在する各点を抽出して第1点群データP1を生成する。第1点群データP1は、記憶部15に記憶されてもよい。なお、第1設定部111及び特徴抽出部112の一方又は双方は、生成部11に含まれてもよい。また、第1設定部111及び特徴抽出部112の一方又は双方は、処理装置1Aになくてもよい。この場合、生成部11は、基準点群データPFから予め決められた1つ又は複数の範囲を自動的に第1領域R1として設定してもよい。なお、第1領域R1は、人体Mの一部を含む領域であってもよいし、人体Mの全部を含む領域であってもよい。第1領域R1は、例えば、人体Mを上下方向(例、Y方向)に分割された領域であってもよいし、前後方向(例、Z方向)に分割された領域であってもよい。 The generation unit 11 extracts each point existing within the first region R1 set by the first setting unit 111 to generate first point group data P1. The first point group data P1 may be stored in the storage unit 15. Note that one or both of the first setting section 111 and the feature extraction section 112 may be included in the generation section 11. Further, one or both of the first setting section 111 and the feature extraction section 112 may not be included in the processing device 1A. In this case, the generation unit 11 may automatically set one or more predetermined ranges from the reference point group data PF as the first region R1. Note that the first region R1 may be a region including a part of the human body M, or may be a region including the entire human body M. The first region R1 may be, for example, a region obtained by dividing the human body M in the vertical direction (eg, the Y direction), or may be a region obtained by dividing the human body M in the longitudinal direction (eg, the Z direction).

図5は、上記した第1領域R1の第1点群データP1から第1主成分D1を算出し、第1主成分D1を用いて第2領域R2を設定した図である。算出部14は、生成部11が生成した第1点群データP1を主成分分析することにより第1主成分D1の方向を算出する第1主成分算出処理を実行する。主成分分析は、例えば、相関のある多数の変数から相関のない少数で全体のばらつきを最もよく表す主成分と呼ばれる変数を合成する多変量解析の一手法である。本実施形態では、第1領域R1における第1点群データP1の分散が最も大きくなる方向に軸をとり、これを第1主成分D1としている。 FIG. 5 is a diagram in which the first principal component D1 is calculated from the first point group data P1 of the first region R1 described above, and the second region R2 is set using the first principal component D1. The calculation unit 14 executes a first principal component calculation process of calculating the direction of the first principal component D1 by principal component analysis of the first point cloud data P1 generated by the generation unit 11. Principal component analysis is, for example, a method of multivariate analysis that synthesizes a small number of uncorrelated variables called principal components that best represent overall variation from a large number of correlated variables. In this embodiment, the axis is taken in the direction in which the variance of the first point group data P1 in the first region R1 is the largest, and this is set as the first principal component D1.

第1主成分D1は、多変量解析により算出された特徴因子の一例である。算出部14は、多変量解析により第1点群データP1に基づく複数の因子から特徴因子(例、第1主成分D1)を抽出し、この特徴因子におけるベクトルの方向(例、第1主成分D1の方向)を算出する。算出部14は、主成分分析以外の多変量解析により第1点群データP1に基づく複数の因子(例、変数)から特徴因子を抽出し、この特徴因子におけるベクトルの方向を算出してもよい。本実施形態では、多変量解析として主成分分析により第1主成分D1の方向を算出する処理を例に挙げて説明する。 The first principal component D1 is an example of a characteristic factor calculated by multivariate analysis. The calculation unit 14 extracts a feature factor (e.g., first principal component D1) from a plurality of factors based on the first point cloud data P1 by multivariate analysis, and extracts a vector direction (e.g., first principal component D1) in this feature factor from a plurality of factors based on the first point cloud data P1. D1 direction) is calculated. The calculation unit 14 may extract a characteristic factor from a plurality of factors (e.g., variables) based on the first point cloud data P1 by multivariate analysis other than principal component analysis, and calculate the direction of a vector in this characteristic factor. . In this embodiment, a process of calculating the direction of the first principal component D1 by principal component analysis as a multivariate analysis will be described as an example.

第1生成部12は、記憶部15に記憶されている第1点群データP1から、算出部14が算出した第1主成分D1の方向に交差する平面RS2A(例、面、図5参照)を有する1つ又は複数の第2領域R2(R2A、R2B、・・・、R2M)内の各点を抽出して第2点群データP2A、P2B、・・・P2M(例、図6参照)を生成する処理を実行する。平面RS2Aは、例えば、第1主成分D1の方向と直交する。平面(例、面)を有する第2領域R2は、第1主成分D1の方向に厚みを持つ領域(例、空間)である。第2領域R2は、例えば、略平面、直方体、円柱、楕円柱、多面体などである。 The first generation unit 12 generates a plane RS2A (for example, a plane, see FIG. 5) that intersects the direction of the first principal component D1 calculated by the calculation unit 14 from the first point group data P1 stored in the storage unit 15. Each point in one or more second regions R2 (R2A, R2B, . . . , R2M) having Execute the process that generates the . For example, the plane RS2A is orthogonal to the direction of the first principal component D1. The second region R2 having a plane (eg, a surface) is a region (eg, a space) having a thickness in the direction of the first principal component D1. The second region R2 is, for example, a substantially plane, a rectangular parallelepiped, a cylinder, an elliptical cylinder, a polyhedron, or the like.

なお、平面RS2Aが用いられることに限定されず、第1主成分D1の方向に交差する面であれば任意な面に設定可能であり、例えば、第1主成分D1の方向に直交しない平面、又は曲面であってもよい。平面RS2Aは、第1主成分D1の方向から見て平面RS2A近傍の点群をカバーする広さに設定される。 Note that the plane RS2A is not limited to being used, and any plane can be set as long as it intersects the direction of the first principal component D1. For example, a plane that is not orthogonal to the direction of the first principal component D1, Or it may be a curved surface. The plane RS2A is set to a size that covers a group of points near the plane RS2A when viewed from the direction of the first principal component D1.

第2設定部113は、第1生成部12が第2点群データP2を生成するための人体Mに対する第2領域R2を設定する第2領域設定処理を実行する。第2領域R2は、三次元の空間である。1つの第2領域R2は、第1領域R1より小さい。ただし、第2領域R2は、第1領域R1と同一であってもよい。第2設定部113は、第1主成分D1の方向における第2領域R2の長さ(この場合、厚さ)を設定する。第2領域R2は、平面RS2Aから、第2設定部113が設定した第1主成分D1の方向の長さで区画される三次元の空間である。 The second setting unit 113 executes a second area setting process for setting a second area R2 for the human body M for the first generation unit 12 to generate the second point cloud data P2. The second region R2 is a three-dimensional space. One second region R2 is smaller than the first region R1. However, the second region R2 may be the same as the first region R1. The second setting unit 113 sets the length (thickness in this case) of the second region R2 in the direction of the first principal component D1. The second region R2 is a three-dimensional space defined by the length in the direction of the first principal component D1 set by the second setting unit 113 from the plane RS2A.

第2設定部113は、先に設定した第2領域R2Aに対して第1主成分D1の方向の異なる位置に新たな第2領域R2Bを設定し、第1主成分D1の一端(一端側)から他端(他端側)に向けて順次新たな第2領域R2B、・・・、R2Mを設定する。すなわち、第2設定部113は、第1主成分D1の方向に沿って複数の第2領域R2A、R2B、・・・、R2Mを設定する。複数の第2領域R2A、R2B、・・・、R2Mは、それぞれ平面RS2A、RS2B、・・・、RS2Mを有する領域である。平面RS2A、RS2B、・・・、RS2Mは、それぞれが同一の広さであってもよいし、各平面RS2A等の近傍に存在する点群に合わせて異なる広さであってもよい。このように、第2設定部113は、第1主成分D1の方向において先に設定した第2領域R2(例、第2領域R2A)の位置とは異なる位置に新たな第2領域R2(例、第2領域R2B)を設定する。 The second setting unit 113 sets a new second region R2B at a position different from the previously set second region R2A in the direction of the first principal component D1, and sets one end (one end side) of the first principal component D1. From there, new second regions R2B, . . . , R2M are sequentially set toward the other end (other end side). That is, the second setting unit 113 sets a plurality of second regions R2A, R2B, . . . , R2M along the direction of the first principal component D1. The plurality of second regions R2A, R2B, ..., R2M are regions having planes RS2A, RS2B, ..., RS2M, respectively. The planes RS2A, RS2B, . In this way, the second setting unit 113 creates a new second region R2 (e.g., a second region R2A) at a position different from the position of the previously set second region R2 (e.g., the second region R2A) in the direction of the first principal component D1. , second region R2B).

複数の第2領域R2A、R2B、・・・、R2Mは、第1主成分D1の方向の長さが同一であってもよいし、互いに異なってもよい。第2設定部113は、複数の第2領域R2A等の第1主成分D1の方向における長さを、予め決められた長さ(例、10mm)に設定してもよいし、第1領域R1内の第1主成分D1の長さに基づいて所定の比率(例、第1主成分D1の長さの5%)で設定してもよい。所定の比率は、記憶部15に記憶されていてもよいし、ユーザが入力部4により設定してもよい。第2設定部113は、複数の第2領域R2A、R2B、・・・、R2Mを第1主成分D1の方向に沿って順次並べて設定する。第2設定部113は、複数の第2領域R2A、R2B、・・・、R2Mが互いに接した状態で設定してもよいし、互いに隙間(例、間隔)を開けた状態で設定してもよい。また、第2設定部113は、複数の第2領域R2A、R2B、・・・、R2Mを互いに一部重複させて設定してもよい。 The plurality of second regions R2A, R2B, . . . , R2M may have the same length in the direction of the first principal component D1, or may have different lengths from each other. The second setting unit 113 may set the length of the plurality of second regions R2A, etc. in the direction of the first principal component D1 to a predetermined length (for example, 10 mm), or It may be set at a predetermined ratio (for example, 5% of the length of the first principal component D1) based on the length of the first principal component D1 within. The predetermined ratio may be stored in the storage unit 15 or may be set by the user using the input unit 4. The second setting unit 113 sets the plurality of second regions R2A, R2B, . . . , R2M to be sequentially arranged along the direction of the first principal component D1. The second setting section 113 may set the plurality of second regions R2A, R2B, . good. Further, the second setting unit 113 may set the plurality of second regions R2A, R2B, . . . , R2M so as to partially overlap each other.

また、複数の第2領域R2の1つ又は全部は分析対象領域である。複数の第2領域R2の全部が分析対象領域である場合、第2領域R2A、R2B、・・・、R2Mは、第1部分領域、第2部分領域、・・・、第M(Mは正の整数)部分領域である。また、これら第1から第M部分領域は、第1から第M分割領域、又は第1から第M小領域である。第2設定部113が設定した第2領域R2に関する第2領域データRD2は、記憶部15に記憶されてもよい。 Further, one or all of the plurality of second regions R2 is an analysis target region. When all of the plurality of second regions R2 are the analysis target regions, the second regions R2A, R2B, ..., R2M are the first partial region, the second partial region, ..., the Mth (M is the correct (integer) is a subregion. Further, these first to Mth partial regions are first to Mth divided regions or first to Mth small regions. The second region data RD2 regarding the second region R2 set by the second setting section 113 may be stored in the storage section 15.

第1生成部12は、第2設定部113が設定した第2領域R2A、R2B、・・・、R2M内に存在する各点をそれぞれ抽出して第2点群データP2(P2A、P2B、・・・、P2M)を生成する。第2点群データP2は、記憶部15に記憶されてもよい。なお、第2設定部113は、第1生成部12に含まれてもよい。また、第2設定部113は、処理装置1Aになくてもよい。この場合、第1生成部12は、第1点群データP1から予め決められた1つ又は複数の範囲を自動的に第2領域R2として設定してもよい。 The first generation unit 12 extracts each point existing in the second regions R2A, R2B, . ..., P2M). The second point group data P2 may be stored in the storage unit 15. Note that the second setting section 113 may be included in the first generation section 12. Further, the second setting unit 113 may not be included in the processing device 1A. In this case, the first generation unit 12 may automatically set one or more predetermined ranges from the first point group data P1 as the second region R2.

特徴量算出部114は、複数の第2点群データP2(P2A、P2B、・・・、P2M)のそれぞれから特徴量を算出する特徴量算出処理を実行する。特徴量算出部114は、例えば、各第2点群データP2から特徴量として最短経路をそれぞれ算出する。 The feature amount calculation unit 114 executes a feature amount calculation process of calculating a feature amount from each of the plurality of second point group data P2 (P2A, P2B, . . . , P2M). The feature amount calculation unit 114 calculates the shortest path as a feature amount from each second point group data P2, for example.

図6は、第2点群データP2Aについて最短経路を算出した一例を示す図である。特徴量算出部114は、例えば、第2点群データP2A内に存在する点群(例、複数の点データ)を第1主成分D1の方向に写像して、第1主成分D1の方向に直交する仮想平面上の点群データとし、この仮想平面上に展開された点群に対して、所定形状をあてはめる手法(所定形状のフィッティング)、又は最小二乗法等の手法により最短経路を算出する(図7参照)。所定形状は、例えば連続的に変化する形状である。この所定形状としては、例えば、楕円、長円、円、曲線形状のいずれかであってもよいし、これらの形状が組み合わされた形状であってもよい。 FIG. 6 is a diagram showing an example of calculating the shortest path for the second point group data P2A. For example, the feature calculation unit 114 maps the point group (e.g., a plurality of point data) existing in the second point group data P2A in the direction of the first principal component D1, and The point cloud data is on an orthogonal virtual plane, and the shortest path is calculated by a method of fitting a predetermined shape (predetermined shape fitting) or a method such as the method of least squares to the point cloud expanded on this virtual plane. (See Figure 7). The predetermined shape is, for example, a shape that changes continuously. This predetermined shape may be, for example, an ellipse, an ellipse, a circle, a curved shape, or a combination of these shapes.

特徴量算出部114は、上記した手法により算出した最短経路の長さ(最短経路長)を算出する。特徴量算出部114が算出した最短経路長は、記憶部15に記憶されてもよい。なお、特徴量算出部114は、特徴量として最短経路を算出することに限定されない。特徴量算出部114は、特徴量として、例えば、仮想平面上に展開された点群で囲まれた面積であってもよいし、第2点群データP2Aで囲まれる空間の体積であってもよい。また、特徴量算出部114は、楕円推定(楕円形状をあてはめる手法)に代えて、変形例として以下の手法を適用可能である。例えば、特徴量算出部114は、第2点群データP2(例、P2A)から凸包を求め、この凸包に含まれる点間をB-スプライン曲線により補完して第2点群データP2の特徴量(例、外周長)を算出してもよい。ここで、凸包は、第2点群データP2で与えられた各点を含む最小の凸集合である。第2点群データP2から求められた凸包は、第2点群データP2に含まれる点を含む全ての凸集合の交わり、あるいは第2点群データP2に含まれる点の凸結合全体の成す集合として定義可能である。凸集合とは、例えば、物体(本実施例では第2点群データP2)に含まれる任意の二点に対し、それら二点を結ぶ線分上の任意の点がまたその物体に含まれることをいう。凸結合とは、例えば、和が1となるような非負係数を持つ点(例、ベクトル、スカラー)の線型結合である。また、B-スプライン曲線とは、例えば、与えられた複数の点とノットベクトルから定義される滑らかな曲線である。 The feature value calculation unit 114 calculates the length of the shortest path (shortest path length) calculated by the above-described method. The shortest path length calculated by the feature value calculation unit 114 may be stored in the storage unit 15. Note that the feature quantity calculation unit 114 is not limited to calculating the shortest path as a feature quantity. The feature amount calculation unit 114 may calculate, for example, an area surrounded by a point group developed on a virtual plane or a volume of a space surrounded by the second point group data P2A as a feature amount. good. Further, the feature amount calculation unit 114 can apply the following method as a modification instead of ellipse estimation (a method of fitting an ellipse shape). For example, the feature calculation unit 114 calculates a convex hull from the second point cloud data P2 (for example, P2A), and complements the points included in this convex hull with a B-spline curve to generate the second point cloud data P2. A feature amount (eg, outer circumference length) may be calculated. Here, the convex hull is the minimum convex set including each point given in the second point group data P2. The convex hull obtained from the second point group data P2 is the intersection of all convex sets including points included in the second point group data P2, or the convex hull of all convex combinations of points included in the second point group data P2. Can be defined as a set. A convex set means, for example, that for any two points included in an object (second point group data P2 in this example), any point on a line segment connecting those two points is also included in that object. means. A convex combination is, for example, a linear combination of points (eg, vectors, scalars) having non-negative coefficients such that the sum is 1. Further, a B-spline curve is, for example, a smooth curve defined from a plurality of given points and knot vectors.

ここで、特徴量算出部114は、仮想平面上における第1主成分D1の位置を算出してもよい。特徴量算出部114は、例えば、仮想平面上に展開された点群に対して、楕円形状を用いてフィッティング処理した場合、その楕円形状の中心を第1主成分D1の位置として算出してもよい。また、特徴量算出部114が算出した最短経路長は、人体Mにおけるその部位の外周の長さに相当すると推定可能である。 Here, the feature value calculation unit 114 may calculate the position of the first principal component D1 on the virtual plane. For example, when the feature amount calculation unit 114 performs fitting processing using an ellipse shape on a point group developed on a virtual plane, the feature value calculation unit 114 calculates the center of the ellipse shape as the position of the first principal component D1. good. Further, it can be estimated that the shortest path length calculated by the feature amount calculation unit 114 corresponds to the length of the outer circumference of that part of the human body M.

また、第2点群データP2のデータ量が少ない場合がある。例えば、位置検出部2により人体Mの基準点群データPFを取得する際に、1方向から人体Mを撮像すると、その方向において影となる裏面側の画像が取得できず、その結果、基準点群データ生成部22で、裏面側の点群がないまま基準点群データPFが生成されることがある。 Further, the amount of data of the second point group data P2 may be small. For example, when acquiring the reference point group data PF of the human body M by the position detection unit 2, if the human body M is imaged from one direction, an image of the back side that is a shadow in that direction cannot be acquired, and as a result, the reference point The group data generation unit 22 may generate reference point group data PF without the point group on the back side.

図7は、第2点群データP2について最短経路を算出した他の例を示す図である。図1に示す処理装置1A(又は姿勢解析システムSYS)では、2つ(複数)の検出部21を備える構成を示しているが、検出部21が1つであってもよい。このような処理装置1A(又は姿勢解析システムSYS)において、1つの検出部21から-Z方向(例、図1参照)を視点として人体Mを撮像すると、人体Mの表面側(例、+Z側)が撮像されるが、人体Mの裏面側(例、-Z側)が撮像されない。そのため、基準点群データ生成部22により基準点群データPF(この場合、人体Mの裏面側の点群はない)が生成され、この基準点群データPFに基づいて第2点群データP2A1(図7参照)が抽出されても裏面側の点群がないままとなる。しかしながら、人体Mの主要部分(例、頭、首、胴、脚、腕)は、長手方向と直交する平面上の外形がほぼ楕円形状であると仮定することが可能である。従って、特徴量算出部114は、第2点群データP2A1に対して楕円形状でフィッティング処理を行うことにより最短経路を算出してもよい(図7参照)。また、特徴量算出部114は、楕円形状の中心を第1主成分D1Aの位置として算出してもよい。また、図7に示すように裏面側の点群がない場合、先に点群データを取得した第1方向(例、-Z方向)と異なる第2方向(例、+Z方向)から検出部21により人体Mを撮像して、基準点群データ生成部22により第2方向における点群データを生成させ、さらに、基準点群データ生成部22により第1方向を視点とする点群データ(例、図7)と第2方向を視点とする点群データとを合成(例、マージ)して基準点群データPFを生成させてもよい。このように合成された基準点群データPFは、例えば、図6に示す第2点群データP2Aのように、人体Mの表面側(例、-Z側)と裏面側(例、+Z側)とに点群を有する。 FIG. 7 is a diagram showing another example of calculating the shortest path for the second point group data P2. Although the processing device 1A (or posture analysis system SYS) shown in FIG. 1 has a configuration including two (plural) detection units 21, the number of detection units 21 may be one. In such a processing device 1A (or posture analysis system SYS), when the human body M is imaged from one detection unit 21 with the −Z direction (for example, see FIG. 1) as a viewpoint, the surface side of the human body M (for example, the +Z side ) is imaged, but the back side (eg, -Z side) of the human body M is not imaged. Therefore, the reference point group data generation unit 22 generates the reference point group data PF (in this case, there is no point group on the back side of the human body M), and based on this reference point group data PF, the second point group data P2A1 ( (see FIG. 7) is extracted, the point group on the back side remains missing. However, it is possible to assume that the main parts of the human body M (eg, head, neck, torso, legs, arms) have a substantially elliptical external shape on a plane perpendicular to the longitudinal direction. Therefore, the feature value calculation unit 114 may calculate the shortest path by performing a fitting process on the second point group data P2A1 using an ellipse shape (see FIG. 7). Further, the feature amount calculation unit 114 may calculate the center of the ellipse shape as the position of the first principal component D1A. In addition, as shown in FIG. 7, if there is no point cloud on the back side, the detection unit 21 The human body M is imaged by the reference point cloud data generating section 22 to generate point cloud data in the second direction, and the reference point cloud data generating section 22 further generates point cloud data with the first direction as a viewpoint (for example, The reference point group data PF may be generated by combining (eg, merging) the point group data (FIG. 7) and the point group data whose viewpoint is in the second direction. The reference point group data PF synthesized in this way is, for example, like the second point group data P2A shown in FIG. and has a point cloud.

そして、判定部115は、隣り合う第2領域R2(例、R2AとR2B)の第2点群データP2(例、P2AとP2B)に基づいて特徴量算出部114によりそれぞれ算出された2つの特徴量(例、最短経路長)を比較して、変化量が所定値を超えるか否かを判定する判定処理を実行する。 Then, the determining unit 115 calculates the two features respectively calculated by the feature amount calculating unit 114 based on the second point group data P2 (e.g., P2A and P2B) of the adjacent second regions R2 (e.g., R2A and R2B). A determination process is performed to compare the amounts (eg, shortest path length) and determine whether the amount of change exceeds a predetermined value.

図8は、第1主成分D1の方向の位置と最短経路長との関係を示すグラフ図である。判定部115は、例えば、横軸が第1主成分D1、縦軸が最短経路長であるグラフを作成し(図8参照)、特徴量の変化量が所定値を超えるか否かを判定する。この所定値は、予め記憶部15に記憶されていてもよい。判定部115は、変化量が所定値を超えるか否かを判定することに代えて、1次微分が変化するか否かを判定してもよい。 FIG. 8 is a graph diagram showing the relationship between the position in the direction of the first principal component D1 and the shortest path length. For example, the determination unit 115 creates a graph in which the horizontal axis is the first principal component D1 and the vertical axis is the shortest path length (see FIG. 8), and determines whether the amount of change in the feature amount exceeds a predetermined value. . This predetermined value may be stored in the storage unit 15 in advance. Instead of determining whether the amount of change exceeds a predetermined value, the determination unit 115 may determine whether the first derivative changes.

判定部115は、変化量が所定値を超える、あるいは1次微分が変化すると判定したポイントPA、PBを特徴点(例、変化点)として抽出する(図8参照)。判定部115は、第1主成分D1の方向において、最短経路長が大きく変化する部位、あるいは最短経路長が増加から減少又は減少から増加に変わる部位をポイントPA、PBとして抽出する。判定部115が抽出したポイントPA、PBは、記憶部15に記憶される。 The determination unit 115 extracts points PA and PB for which it is determined that the amount of change exceeds a predetermined value or that the first derivative changes as feature points (eg, points of change) (see FIG. 8). The determination unit 115 extracts, as points PA and PB, a portion where the shortest path length changes greatly, or a portion where the shortest path length changes from increase to decrease or from decrease to increase in the direction of the first principal component D1. The points PA and PB extracted by the determination unit 115 are stored in the storage unit 15.

再設定部116は、判定部115により変化量が所定値を超える、あるいは1次微分が変化すると判定された場合に、その判定に用いた隣り合う第2領域R2の一方又は双方を、先に設定した第1領域R1から除外し、変化量が所定値を超えない範囲について、新たな第1領域R11を設定する再設定処理を実行する。再設定部116は、この再設定処理によって先の第1領域R1より範囲が狭い新たな第1領域R11を設定することができる。 When the determining unit 115 determines that the amount of change exceeds a predetermined value or that the first derivative changes, the resetting unit 116 first resets one or both of the adjacent second regions R2 used in the determination. A resetting process is executed to exclude from the set first region R1 and set a new first region R11 in a range in which the amount of change does not exceed a predetermined value. Through this resetting process, the resetting unit 116 can set a new first region R11 having a narrower range than the previous first region R1.

図9は、新たに設定された第1領域R11に基づいて第2領域R21を設定した図である。再設定部116は、例えば、複数の第2領域R2のうちポイントPA、PBより外側の第2領域R2を除外し、判定部115が抽出したポイントPA、PBに挟まれた第2領域R2における第1主成分D1の方向の範囲を新たな第1領域R11として設定する(図8、図9参照)。 FIG. 9 is a diagram in which the second region R21 is set based on the newly set first region R11. For example, the resetting unit 116 excludes the second area R2 outside the points PA and PB from the plurality of second areas R2, and removes the second area R2 located outside the points PA and PB extracted by the determination unit 115. The range in the direction of the first principal component D1 is set as a new first region R11 (see FIGS. 8 and 9).

そして、生成部11は、再設定部116が新たな第1領域R11を設定すると、基準点群データPFから第1領域R11内の点を抽出して第1点群データP11を生成する。算出部14は、第1点群データP11から主成分分析により第1主成分D11を算出する(図9参照)。第2設定部113は、第1主成分D11の方向に沿って1つ又は複数の第2領域R21(R21A、・・・、R21E)を設定する(図9参照)。 Then, when the resetting unit 116 sets a new first region R11, the generation unit 11 extracts points within the first region R11 from the reference point group data PF to generate first point group data P11. The calculation unit 14 calculates the first principal component D11 from the first point group data P11 by principal component analysis (see FIG. 9). The second setting unit 113 sets one or more second regions R21 (R21A, . . . , R21E) along the direction of the first principal component D11 (see FIG. 9).

第1生成部12は、第2領域R21A、・・・、R21E内に存在する各点をそれぞれ抽出して第2点群データP21A、・・・、P21Eを生成する。特徴量算出部114は、第2点群データP21A等から特徴量である最短経路長を算出する。判定部115は、隣り合う第2領域R21における特徴量の変化量が所定値を超えるか否かを判定する。判定部115により所定値を超えると判定された場合は、上記のように再設定部116が新たに第1領域を設定し、上記の処理が繰り返される。 The first generation unit 12 extracts each point existing in the second regions R21A, . . . , R21E, and generates second point group data P21A, . The feature amount calculation unit 114 calculates the shortest path length, which is a feature amount, from the second point group data P21A and the like. The determination unit 115 determines whether the amount of change in the feature amount in the adjacent second region R21 exceeds a predetermined value. If the determining unit 115 determines that the predetermined value is exceeded, the resetting unit 116 newly sets the first area as described above, and the above process is repeated.

図10は、新たな第2領域R21について第1主成分D11の方向の位置と最短経路長との関係を示すグラフ図である。なお、第1主成分D11は、図10に示す第1主成分D1に対して、PA、PBに挟まれた範囲に相当する。判定部115により隣り合う第2領域R21における特徴量の変化量が所定値を超えない場合(図10参照)、そのときの第2点群データP21A、・・・、P21E、及び第1主成分D11の方向及び位置は、記憶部15に記憶されてもよい。また、新たな第1領域R11においては、第1主成分D11に沿った最短経路長の変化が小さい、あるいは最短経路長が増加から減少又は減少から増加に変化しないことが推定されたことになる(図10参照)。 FIG. 10 is a graph diagram showing the relationship between the position in the direction of the first principal component D11 and the shortest path length for the new second region R21. Note that the first principal component D11 corresponds to the range sandwiched between PA and PB with respect to the first principal component D1 shown in FIG. If the determination unit 115 determines that the amount of change in the feature amount in the adjacent second region R21 does not exceed a predetermined value (see FIG. 10), then the second point group data P21A, ..., P21E and the first principal component The direction and position of D11 may be stored in the storage unit 15. Furthermore, in the new first region R11, it is estimated that the change in the shortest path length along the first principal component D11 is small, or that the shortest path length does not change from increasing to decreasing or from decreasing to increasing. (See Figure 10).

なお、上記した生成部11から再設定部116までの繰り返しの処理において、判定部115は、特徴量の変化量を同一の所定値を用いて判定してもよいし、異なる所定値を用いて判定してもよい。例えば、判定部115は、1つ前に用いた所定値より小さい所定値を用いて判定してもよい。なお、特徴量算出部114及び判定部115の一方又は双方は、第2設定部113又は第1生成部12に含まれてもよい。また、特徴量算出部114及び判定部115の一方又は双方は、処理装置1Aになくてもよい。この場合、第1生成部12は、1つ又は複数の第2領域R2から第2点群データP2を生成するだけでもよい。また、再設定部116は、第1設定部111又は生成部11に含まれてもよい。判定部115が処理装置1Aにない場合は、再設定部116は、処理装置1Aになくてもよい。 In addition, in the repeated processing from the generation unit 11 to the resetting unit 116 described above, the determination unit 115 may determine the amount of change in the feature amount using the same predetermined value, or may determine the amount of change in the feature amount using a different predetermined value. You may judge. For example, the determination unit 115 may make the determination using a predetermined value smaller than the previously used predetermined value. Note that one or both of the feature value calculation unit 114 and the determination unit 115 may be included in the second setting unit 113 or the first generation unit 12. Further, one or both of the feature value calculation unit 114 and the determination unit 115 may not be included in the processing device 1A. In this case, the first generation unit 12 may simply generate the second point group data P2 from one or more second regions R2. Further, the resetting unit 116 may be included in the first setting unit 111 or the generating unit 11. If the determination unit 115 is not included in the processing device 1A, the resetting unit 116 may not be included in the processing device 1A.

第2生成部13は、第1生成部12が生成した第2点群データP2に基づいて、人体Mの三次元モデル及び人体Mの姿勢情報の一方又は双方を生成する生成処理を実行する。第2生成部13は、図3に示すように、姿勢推定部117と、モデル生成部118と、レンダリング処理部119とを備える。姿勢推定部117は、第1生成部12が生成した第2点群データP2に基づいて、人体Mの姿勢を推定する姿勢推定処理を実行する。姿勢推定部117は、例えば、人体Mのうち第2領域R2(R2A等)における対象部分(例、分析対象部分、対象部位)の位置情報を生成する。 The second generation unit 13 executes generation processing to generate one or both of a three-dimensional model of the human body M and posture information of the human body M, based on the second point group data P2 generated by the first generation unit 12. The second generation unit 13 includes a posture estimation unit 117, a model generation unit 118, and a rendering processing unit 119, as shown in FIG. The posture estimation unit 117 executes posture estimation processing to estimate the posture of the human body M based on the second point group data P2 generated by the first generation unit 12. The posture estimation unit 117 generates, for example, position information of a target part (eg, analysis target part, target part) in the second region R2 (R2A, etc.) of the human body M.

姿勢推定部117は、例えば、第2点群データP2から得られる人体Mの対象部分(対象部位)の形状に対して、認識処理(例、パターン認識、形状認識、骨格認識)を実行する。姿勢推定部117は、認識処理によって、上記の対象部分の位置情報を生成する。対象部分の位置情報は、例えば、対象部分を代表する点の座標(例、3次元座標)を含む。姿勢推定部117は、上記の認識処理によって、対象部分を表す点の座標を算出する。姿勢推定部117は、対象部分を表す点の座標を記憶部15に記憶させる。姿勢推定部117は、主成分分析を行った後の第2点群データP2を用いるので、対象部分を高精度に推定可能である。 The posture estimation unit 117 performs recognition processing (eg, pattern recognition, shape recognition, skeleton recognition) on the shape of the target part (target part) of the human body M obtained from the second point group data P2, for example. The posture estimation unit 117 generates the position information of the target portion through recognition processing. The position information of the target portion includes, for example, the coordinates (eg, three-dimensional coordinates) of a point representing the target portion. The posture estimation unit 117 calculates the coordinates of a point representing the target portion through the above recognition process. The posture estimation unit 117 causes the storage unit 15 to store the coordinates of a point representing the target portion. Since the posture estimation unit 117 uses the second point group data P2 after performing principal component analysis, it is possible to estimate the target portion with high accuracy.

姿勢推定部117は、上記認識処理の結果として、対象部分の位置と、対象部分の情報(例、属性情報、名称(例、大腿、上腕))と、2つの対象部分(例、大腿と下腿、下腿と足首から足先の部分、上腕と前腕)の接続関係を示す接続情報とを一組にした姿勢情報(例、骨格情報、スケルトンデータ)を生成する。姿勢推定部117は、上記姿勢情報を記憶部15に記憶させる。 The posture estimation unit 117 obtains the position of the target part, information on the target part (e.g., attribute information, name (e.g., thigh, upper arm)), and two target parts (e.g., thigh and lower leg) as a result of the recognition process. , the lower leg and the part from the ankle to the tip of the foot, and the connection information indicating the connection relationship between the upper arm and the forearm) to generate posture information (eg, skeletal information, skeleton data). Posture estimating section 117 causes storage section 15 to store the above posture information.

姿勢推定部117は、上記姿勢情報に基づいて、人体Mの姿勢を推定する。姿勢推定部117は、接続関係がある一対の対象部分を結ぶ第1線と、第1線に接続され、接続関係がある一対の特徴部分を結ぶ第2線との相対位置(例、角度)に基づいて、第1線及び第2線を含む部分の姿勢を推定する。姿勢推定部117は、対象部分について上述のように姿勢を推定することで、人体Mの一部又は全体の姿勢を高精度に推定する。 The posture estimation unit 117 estimates the posture of the human body M based on the posture information. The posture estimation unit 117 determines the relative position (e.g., angle) between a first line connecting a pair of target parts that have a connection relationship and a second line that is connected to the first line and connects a pair of feature parts that have a connection relationship. Based on this, the pose of the part including the first line and the second line is estimated. The posture estimation unit 117 estimates the posture of a part or the entire human body M with high accuracy by estimating the posture of the target portion as described above.

なお、姿勢推定部117は、人体Mなどの姿勢を定義した姿勢定義情報を参照して、姿勢を推定してもよい。上記の姿勢定義情報は、例えば、姿勢の種類を表す情報と、各対象部分の相対位置を定義する情報とを一組にした情報である。姿勢の種類を表す情報は、例えば、起立姿勢、座位姿勢など姿勢の名称である。姿勢推定部117は、上記姿勢情報と上記姿勢定義情報とを照合して、人体Mの姿勢を推定(識別)してもよい。 Note that the posture estimation unit 117 may estimate the posture by referring to posture definition information that defines the posture of the human body M or the like. The above-mentioned posture definition information is, for example, a set of information indicating the type of posture and information defining the relative position of each target portion. The information representing the type of posture is, for example, the name of the posture, such as standing posture or sitting posture. The posture estimation unit 117 may estimate (identify) the posture of the human body M by comparing the posture information with the posture definition information.

また、姿勢推定部117は、物体における複数の対象領域(例、第2領域R2、分析対象領域)により推定された物体(本実施形態では人体M)の各部位の姿勢から接続部分(人体Mにおける関節位置)の推定を行ってもよい。物体における複数の対象領域は、関節を挟んで互いに接続された部位(例、頭と首、肩と上腕、上腕と前腕、臀部と大腿、大腿と下腿)である。 In addition, the posture estimating unit 117 calculates the connected portion (human body M (joint positions) may be estimated. A plurality of target regions in an object are parts connected to each other across joints (eg, head and neck, shoulder and upper arm, upper arm and forearm, buttocks and thigh, thigh and lower leg).

図11(A)及び(B)は、本実施形態に係る第2生成部13(例、姿勢推定部117)により物体(本実施形態では人体M)の姿勢を推定する一例を示す図である。図11を参照して、姿勢推定部117が人体Mにおいて関節位置の推定を行う例について、関節Kとして「膝」を例に挙げて説明する。姿勢推定部117は、物体(本実施形態では人体M)の一部(例、対象領域)である第1部位Q1(この場合、大腿)に関して第2領域R21を設定する際の第1主成分D11と、人体Mの他の一部であって第1部位Q1とは異なる第2部位Q2(この場合、下腿)に関して第2領域R121を設定する際の第1主成分D111とに基づいて、第1部位Q1と第2部位Q2との接続部分である関節Kに関する情報を生成する。上記実施形態のように人体Mの「大腿」を対象部位(第1部位Q1)としてその姿勢(例、位置、方向、長さ)が高精度で推定された後、本実施形態の手法により他の対象部位(第2部位Q2)である「下腿」を外形特徴として含むように第1領域を設定する。この第1領域は、「大腿」を対象とした際の第1領域R1(又は新たな第1領域R11)の一部、あるいは第1領域R1のうち第1領域R11を除いた領域の一部又は全部を含んでもよい。また、「下腿」を含む第1領域は、例えば、図4に示す第1領域R1であってもよい。そして、第1領域が設定されると、上記した実施形態と同様に、第1主成分の算出、第2領域の設定、第2点群データの生成及び特徴量の算出、といった処理が繰り返された後、図11(A)に示すように、「下腿」を対象部位(第2部位Q2)とした第1領域R111から第1主成分D111が算出され、第2領域R121から生成された第2点群データを用いることにより、第2部位Q2である「下腿」の姿勢(例、位置、方向、長さ)が姿勢推定部117によって高精度で推定される。 FIGS. 11A and 11B are diagrams illustrating an example of estimating the posture of an object (human body M in this embodiment) by the second generation unit 13 (e.g., posture estimation unit 117) according to the present embodiment. . Referring to FIG. 11, an example in which the posture estimation unit 117 estimates joint positions in the human body M will be described using a "knee" as an example of the joint K. The posture estimation unit 117 calculates the first principal component when setting the second region R21 with respect to the first region Q1 (in this case, the thigh) that is a part (e.g., target region) of the object (human body M in this embodiment). Based on D11 and the first principal component D111 when setting the second region R121 regarding a second region Q2 (in this case, the lower leg) that is another part of the human body M and is different from the first region Q1, Information regarding the joint K, which is the connecting part between the first part Q1 and the second part Q2, is generated. After the posture (e.g., position, direction, length) of the human body M is estimated with high accuracy using the "thigh" of the human body M as the target part (first part Q1) as in the above embodiment, the technique of this embodiment is used to The first region is set to include the "lower leg" which is the target region (second region Q2) as an external feature. This first region is a part of the first region R1 (or a new first region R11) when the "thigh" is targeted, or a part of the first region R1 excluding the first region R11. Or it may include all of them. Further, the first region including the "lower leg" may be, for example, the first region R1 shown in FIG. 4. Then, once the first region is set, the processes of calculating the first principal component, setting the second region, generating the second point cloud data, and calculating the feature amount are repeated, as in the above-described embodiment. After that, as shown in FIG. 11A, the first principal component D111 is calculated from the first region R111 with the "lower leg" as the target region (second region Q2), and the first principal component D111 generated from the second region R121 is calculated. By using the two-point group data, the posture estimation unit 117 estimates the posture (eg, position, direction, length) of the "lower leg" which is the second part Q2 with high accuracy.

続いて、姿勢推定部117は、図11(B)に示すように、「大腿」(第1部位Q1)を対象部位として第2領域R21が設定された際の第1主成分D11と、「下腿」(第2部位Q2)を対象部位として第2領域R121が設定された際の第1主成分D111とを仮想的にそれぞれ延長させる。第1主成分D11と第1主成分D111とは、互いに交差せず、平行かつ離間する平面にそれぞれ沿っている場合、又はねじれの位置関係にある場合のいずれであってもよい。そして、姿勢推定部117は、第1主成分D11と第1主成分D111との距離が最短となるように線分LXを算出し、その中点を「大腿」(第1部位Q1)と「下腿」(第2部位Q2)との接続部分である関節K(膝)として推定する。なお、姿勢推定部117は、第1主成分D11と第1主成分D111とをそれぞれ延長した際、両者が交差する場合は、その交点を関節K(膝)として推定する。なお、姿勢推定部117は、線分LXの中点を関節Kと推定することに限定されない。姿勢推定部117は、線分LXの中点以外を関節Kと推定してもよく、例えば、関節Kを「大腿」(第1部位Q1)又は「下腿」(第2部位Q2)に近づけるように、線分LXを所定の割合(例、3:7)で分割した点を関節Kとして推定してもよいし、第1主成分D11上の点、又は第1主成分D111の点であってもよい。 Subsequently, as shown in FIG. 11(B), the posture estimation unit 117 calculates the first principal component D11 when the second region R21 is set with the "thigh" (first region Q1) as the target region, and " The first principal component D111 when the second region R121 is set with the lower leg (second region Q2) as the target region is virtually extended. The first principal component D11 and the first principal component D111 may not intersect with each other and may be along planes that are parallel and spaced apart from each other, or may be in a twisted positional relationship. Then, the posture estimation unit 117 calculates the line segment LX so that the distance between the first principal component D11 and the first principal component D111 is the shortest, and defines the midpoint between the "thigh" (first part Q1) and " It is estimated that the joint K (knee) is the connecting part with the lower leg (second part Q2). Note that when the first principal component D11 and the first principal component D111 are extended and they intersect, the posture estimation unit 117 estimates the intersection as the joint K (knee). Note that the posture estimation unit 117 is not limited to estimating the midpoint of the line segment LX as the joint K. The posture estimation unit 117 may estimate a point other than the midpoint of the line segment LX as the joint K. For example, the posture estimation unit 117 may estimate a point other than the midpoint of the line segment LX to be the joint K. In addition, a point obtained by dividing the line segment LX at a predetermined ratio (for example, 3:7) may be estimated as the joint K, or a point on the first principal component D11 or a point on the first principal component D111 may be estimated. It's okay.

さらに、モデル生成部118は、上記姿勢情報に基づいて、人体Mのモデル情報を生成するモデル生成処理を実行する。モデル情報は、例えば3次元のCGモデルデータであり、人体Mの形状情報を含む。モデル生成部118は、第1生成部12が生成した第2点群データP2に基づいて、人体Mのモデル情報を算出する。モデル生成部118は、形状情報としてサーフェス情報を算出するサーフェス処理を実行する。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、及びドローデータの少なくとも1つを含む。サーフェス情報は、人体Mの表面上の複数の点の座標と、複数の点間の連結情報とを含む。連結情報(例、属性情報)は、例えば、人体M表面の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。また、連結情報は、例えば、人体M表面の輪郭に相当する複数の線を互いに関連付ける情報を含む。 Further, the model generation unit 118 executes a model generation process to generate model information of the human body M based on the posture information. The model information is, for example, three-dimensional CG model data, and includes shape information of the human body M. The model generation unit 118 calculates model information of the human body M based on the second point cloud data P2 generated by the first generation unit 12. The model generation unit 118 executes surface processing to calculate surface information as shape information. The surface information includes, for example, at least one of polygon data, vector data, and draw data. The surface information includes coordinates of multiple points on the surface of the human body M and connection information between the multiple points. The connection information (eg, attribute information) includes, for example, information that associates points at both ends of a line corresponding to a ridgeline (eg, an edge) on the surface of the human body M with each other. Further, the connection information includes, for example, information that associates a plurality of lines corresponding to the outline of the surface of the human body M with each other.

モデル生成部118は、サーフェス処理において、第2点群データP2に含まれる複数の点から選択される点とその近傍の点との間の面を推定する。モデル生成部118は、サーフェス処理において、第2点群データP2を点間の平面情報を持つポリゴンデータに変換する。モデル生成部118は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。モデル生成部118は、算出したサーフェス情報を記憶部15に記憶させる。 In the surface processing, the model generation unit 118 estimates a surface between a point selected from a plurality of points included in the second point group data P2 and points in the vicinity thereof. In surface processing, the model generation unit 118 converts the second point group data P2 into polygon data having plane information between points. The model generation unit 118 converts the point cloud data into polygon data using, for example, an algorithm using the least squares method. The model generation unit 118 causes the storage unit 15 to store the calculated surface information.

なお、モデル情報は、人体Mのテクスチャ情報を含んでもよい。モデル生成部118は、3次元の点座標及びその関連情報で規定された面のテクスチャ情報を生成してもよい。テクスチャ情報は、例えば、物体表面の文字や図形、模様、質感、パターン、凹凸を規定する情報、特定の画像、及び色彩(例、有彩色、無彩色)の少なくとも1つの情報を含む。モデル生成部118は、生成したテクスチャ情報を記憶部15に記憶させてもよい。 Note that the model information may include texture information of the human body M. The model generation unit 118 may generate texture information of a surface defined by three-dimensional point coordinates and related information. The texture information includes, for example, at least one of information defining characters, figures, patterns, textures, patterns, and unevenness on the surface of the object, a specific image, and color (eg, chromatic color, achromatic color). The model generation unit 118 may cause the storage unit 15 to store the generated texture information.

また、モデル情報は、画像の空間情報(例、照明条件、光源情報)を含んでもよい。光源情報は、人体Mに対して光(例、照明光)を照射する光源の位置、この光源から人体Mへ光が照射される方向(照射方向)、この光源から照射される光の波長、及びこの光源の種類のうち少なくとも1項目の情報を含む。モデル生成部118は、例えば、ランバート反射を仮定したモデル、アルベド(Albedo)推定を含むモデルなどを利用して、光源情報を算出してもよい。モデル生成部118は、生成した空間情報を記憶部15に記憶させてもよい。モデル生成部118は、テクスチャ情報と空間情報との一方又は双方を生成しなくてもよい。 The model information may also include spatial information (eg, lighting conditions, light source information) of the image. The light source information includes the position of a light source that irradiates light (e.g., illumination light) to the human body M, the direction in which the light is irradiated from this light source to the human body M (irradiation direction), the wavelength of the light irradiated from this light source, and information on at least one item of the type of light source. The model generation unit 118 may calculate the light source information using, for example, a model assuming Lambertian reflection, a model including albedo estimation, or the like. The model generation unit 118 may cause the storage unit 15 to store the generated spatial information. The model generation unit 118 does not need to generate one or both of texture information and spatial information.

レンダリング処理部119は、例えば、グラフィックス プロセッシング ユニット(GPU)を含む。なお、レンダリング処理部119は、CPU及びメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部119は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。 The rendering processing unit 119 includes, for example, a graphics processing unit (GPU). Note that the rendering processing unit 119 may have a mode in which the CPU and memory execute each process according to an image processing program. The rendering processing unit 119 performs, for example, at least one of drawing processing, texture mapping processing, and shading processing.

レンダリング処理部119は、描画処理において、例えば、生成されたモデル情報の形状情報に定められた形状を任意の視点から見た推定画像(例、再構築画像)を算出できる。レンダリング処理部119は、例えば、描画処理によって、モデル情報(例、形状情報)からモデル形状(例、推定画像)を再構成できる。レンダリング処理部119は、算出した推定画像のデータを記憶部15に記憶させてもよい。 In the drawing process, the rendering processing unit 119 can calculate, for example, an estimated image (eg, a reconstructed image) of the shape defined in the shape information of the generated model information viewed from an arbitrary viewpoint. The rendering processing unit 119 can reconstruct a model shape (eg, estimated image) from model information (eg, shape information) by, for example, drawing processing. The rendering processing unit 119 may cause the storage unit 15 to store the calculated estimated image data.

レンダリング処理部119は、テクスチャマッピング処理において、例えば、推定画像上の物体の表面に、モデル情報のテクスチャ情報が示す画像を貼り付けた推定画像を算出できる。レンダリング処理部119は、推定画像上の物体の表面に、対象物と別のテクスチャを貼り付けた推定画像を算出することができる。レンダリング処理部119は、シェーディング処理において、例えば、モデル情報の光源情報が示す光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。レンダリング処理部119は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体に付加した推定画像を算出できる。 In the texture mapping process, the rendering processing unit 119 can calculate, for example, an estimated image in which an image indicated by the texture information of the model information is pasted onto the surface of the object on the estimated image. The rendering processing unit 119 can calculate an estimated image in which a texture different from that of the target object is pasted on the surface of the object on the estimated image. In the shading process, the rendering processing unit 119 can calculate, for example, an estimated image in which a shadow formed by a light source indicated by the light source information of the model information is added to an object on the estimated image. In the shading process, the rendering processing unit 119 can calculate, for example, an estimated image in which a shadow formed by an arbitrary light source is added to an object on the estimated image.

なお、第2生成部13は、姿勢推定部117、モデル生成部118、及びレンダリング処理部119を備えなくてもよい。また、姿勢推定部117、モデル生成部118、及びレンダリング処理部119の少なくとも1つは、第2生成部13外の処理装置1A内に備えてもよい。また、姿勢推定部117、モデル生成部118、及びレンダリング処理部119の少なくとも1つは、処理装置1Aの外部に設けられて、処理装置1Aと通信可能に接続されてもよい。 Note that the second generation unit 13 does not need to include the posture estimation unit 117, the model generation unit 118, and the rendering processing unit 119. Further, at least one of the posture estimation section 117, the model generation section 118, and the rendering processing section 119 may be provided in the processing device 1A outside the second generation section 13. Further, at least one of the posture estimation section 117, the model generation section 118, and the rendering processing section 119 may be provided outside the processing device 1A and communicably connected to the processing device 1A.

処理装置1A(又は姿勢解析システムSYS)は、上記した第2生成部13が生成した人体Mの情報に基づいて、ユーザが入力部4を操作することにより、表示部3で表示する人体Mの三次元モデルあるいは姿勢情報について視点の切り替えを行うことができる。また、処理装置1A(又は姿勢解析システムSYS)は、第2生成部13が生成した人体Mの情報に基づいて体型計測などを行い、その計測結果に基づいて体型のスコア化も可能である。例えば、処理装置1Aは、人体Mの情報(例、点群を含む姿勢情報など)に基づき計測した人体Mの体型の計測結果を絶対的又は相対的な数値で表したスコアを表示部3に表示させることが可能である。なお、このスコアは、表の形式又は時系列(例、横軸が時間又は日にち)のグラフの形式などを用いて表示部3に表示される。なお、処理装置1Aは、ユーザの人体Mの情報に基づくスコアと、事前に記憶部15に記憶されている教師となる人体Mの情報に基づくスコアとを比較した結果を表示部3に表示させてもよいし、記憶部15に記憶されているユーザの過去のスコアと現在において計測したスコアとを比較した結果を表示部3に表示させてもよい。なお、ユーザの人体Mの情報と教師となる人体Mの情報とを重ねて表示部3に表示させてもよい。教師となる人体Mの情報は、ユーザの習熟度に基づいた教師の情報を用いることが可能なように複数あり、それらの情報は記憶部15に記憶されている。処理装置1Aは、ユーザの習熟度に基づいて教師となる人体Mの情報を変更することが可能である。また、人体Mの各部位(例、大腿、上腕)について外周の寸法(例、大腿周りの長さ)を表示部3に表示させることができる。なお、特徴量算出部114が算出した最短経路長を用いて、各部位の外周の寸法としてもよい。人体Mの各部位の寸法を表示させる場合、時系列に表示させてもよいし、時系列で人体Mの一部又は全体の三次元モデルを表示部3に表示させてもよい。 The processing device 1A (or posture analysis system SYS) generates information about the human body M displayed on the display section 3 by the user operating the input section 4 based on the information about the human body M generated by the second generation section 13 described above. It is possible to switch the viewpoint of a three-dimensional model or posture information. Further, the processing device 1A (or the posture analysis system SYS) can perform body shape measurement based on the information of the human body M generated by the second generation unit 13, and can also score the body shape based on the measurement result. For example, the processing device 1A displays on the display unit 3 a score representing the measurement result of the body shape of the human body M, which is measured based on the information of the human body M (e.g., posture information including a point cloud), as an absolute or relative numerical value. It is possible to display it. Note that this score is displayed on the display unit 3 using a table format or a time series graph format (eg, the horizontal axis is time or date). Note that the processing device 1A causes the display unit 3 to display the result of comparing the score based on the information on the user's human body M and the score based on the information on the teacher human body M stored in the storage unit 15 in advance. Alternatively, the result of comparing the user's past score stored in the storage unit 15 with the currently measured score may be displayed on the display unit 3. Note that the information on the user's human body M and the information on the teacher's human body M may be displayed on the display unit 3 in an overlapping manner. There is a plurality of pieces of information on the human body M serving as the teacher so that the teacher's information based on the user's proficiency level can be used, and this information is stored in the storage unit 15. The processing device 1A can change information about the human body M serving as a teacher based on the user's proficiency level. Further, the outer circumferential dimension (eg, length around the thigh) of each part of the human body M (eg, thigh, upper arm) can be displayed on the display unit 3. Note that the shortest path length calculated by the feature amount calculation unit 114 may be used as the outer circumference dimension of each part. When displaying the dimensions of each part of the human body M, it may be displayed in chronological order, or a three-dimensional model of a part or the entire human body M may be displayed on the display unit 3 in chronological order.

次に、本実施形態に係る処理方法について説明する。図12は、本実施形態に係る処理方法の一例を示すフローチャートである。図12のフローチャートを説明するに際して、上記した図1から図10等を適宜用いる。処理装置1A(又は姿勢解析システムSYS)は、物体(この場合、人体M)の基準点群データPFを取得する(ステップS1)。ステップS1において、基準点群データPFは、位置検出部2からまとめて1つのファイルとして処理装置1Aに送られてもよいし、複数のファイルとして分割されて順次処理装置1Aに送られてもよい。 Next, a processing method according to this embodiment will be explained. FIG. 12 is a flowchart illustrating an example of the processing method according to this embodiment. When explaining the flowchart of FIG. 12, the above-mentioned FIGS. 1 to 10 and the like will be used as appropriate. The processing device 1A (or the posture analysis system SYS) acquires reference point group data PF of an object (in this case, the human body M) (step S1). In step S1, the reference point group data PF may be sent together from the position detection unit 2 as one file to the processing device 1A, or may be divided into multiple files and sent sequentially to the processing device 1A. .

続いて、処理装置1Aの第1設定部111は、基準点群データPFから第1領域R1を設定し、生成部11は、第1領域R1内の点を抽出して第1点群データP1を生成する(ステップS2)。ステップS2において、設定された第1領域R1の大きさ及び位置に関する画像が、基準点群データPFに重ねた状態で表示部3に表示されてもよい。また、ステップS2において、第1点群データP1を基準点群データPFから分離した状態で表示部3に表示させてもよいし、基準点群データPFのうち第1点群データP1の部分の色を他の部分から変えた状態で、あるいは第1点群データP1の部分を点滅させた状態で表示部3に表示させてもよい。なお、上記したように、第1領域R1は、基準点群データPFからラフに切り出した状態である。第1領域R1は、例えば、ユーザが分析を希望する部位を含んだ広い領域として設定される。 Subsequently, the first setting unit 111 of the processing device 1A sets a first region R1 from the reference point group data PF, and the generating unit 11 extracts points within the first region R1 and generates the first point group data P1. (Step S2). In step S2, an image regarding the size and position of the set first region R1 may be displayed on the display unit 3 in a state overlaid on the reference point group data PF. Further, in step S2, the first point group data P1 may be displayed on the display unit 3 in a state separated from the reference point group data PF, or the first point group data P1 of the reference point group data PF may be displayed on the display unit 3. The display unit 3 may display the first point group data P1 in a different color from other parts or in a blinking state. Note that, as described above, the first region R1 is roughly cut out from the reference point group data PF. The first region R1 is set, for example, as a wide region that includes a region that the user desires to analyze.

続いて、算出部14は、第1点群データP1に対して主成分分析により第1主成分D1の方向を算出する(ステップS3)。ステップS3において、算出部14は、第1主成分D1の方向から見た第1主成分D1の位置、及び第1主成分D1の長さを算出してもよい。そして、第2設定部113は、第1主成分D1に直交する面(例、平面RS2A)を有する第2領域R2(R2A)を設定する(ステップS4)。ステップS4において、設定された第2領域R2の大きさ及び位置に関する画像が、第1点群データP1又は基準点群データPFに重ねた状態で表示部3に表示されてもよい。 Subsequently, the calculation unit 14 calculates the direction of the first principal component D1 with respect to the first point group data P1 by principal component analysis (step S3). In step S3, the calculation unit 14 may calculate the position of the first principal component D1 viewed from the direction of the first principal component D1 and the length of the first principal component D1. Then, the second setting unit 113 sets a second region R2 (R2A) having a plane (eg, plane RS2A) orthogonal to the first principal component D1 (step S4). In step S4, an image regarding the size and position of the set second region R2 may be displayed on the display unit 3 in a state overlaid on the first point group data P1 or the reference point group data PF.

続いて、第1生成部12は、第1点群データP1から第2領域R2内の点を抽出して第2点群データP2を生成する(ステップS5)。ステップS5において、第2点群データP2を第1点群データP1又は基準点群データPFから分離した状態で表示部3に表示させてもよいし、第1点群データP1又は基準点群データPFのうち第2点群データP2の部分の色を他の部分から変えた状態で、あるいは第2点群データP2の部分を点滅させた状態で表示部3に表示させてもよい。 Subsequently, the first generation unit 12 extracts points within the second region R2 from the first point group data P1 to generate second point group data P2 (step S5). In step S5, the second point group data P2 may be displayed on the display unit 3 in a state separated from the first point group data P1 or the reference point group data PF, or the first point group data P1 or the reference point group data The display unit 3 may display the part of the second point group data P2 in the PF in a different color from the other parts, or in a state where the part of the second point group data P2 is blinked.

続いて、第2生成部13は、第2点群データP2から人体Mの情報を生成する(ステップS6)。ステップS5において、第2生成部13は、人体Mの三次元モデル及び姿勢情報の一方又は双方を人体Mの情報として表示部3に表示させてもよい。 Subsequently, the second generation unit 13 generates information about the human body M from the second point group data P2 (step S6). In step S5, the second generation unit 13 may display one or both of the three-dimensional model of the human body M and the posture information on the display unit 3 as information about the human body M.

三次元モデル及び姿勢情報(例、骨格情報、スケルトンデータ)は、ユーザによる入力部4の操作によっていずれか一方を表示部3に表示させるように切り替え可能であってもよいし、三次元モデルと姿勢情報とを表示部3に並べて表示させてもよい。また、人体Mの各部位のそれぞれについて、外形寸法などの数値を三次元モデルと併せて表示部3に表示させてもよいし、特定の外形寸法について経時的な変化を併せて表示部3に表示させてもよい。 The three-dimensional model and posture information (e.g., skeletal information, skeleton data) may be switchable so that either one is displayed on the display unit 3 by the user's operation of the input unit 4, or the three-dimensional model and posture information may be switchable so as to be displayed on the display unit 3. The posture information may be displayed side by side on the display unit 3. Further, for each part of the human body M, numerical values such as external dimensions may be displayed on the display unit 3 together with the three-dimensional model, and changes over time for specific external dimensions may also be displayed on the display unit 3. It may be displayed.

図13及び図14は、本実施形態に係る処理方法の他の例を示すフローチャートである。このフローチャートにおいて、ステップS1からS5は上記した図12に示す処理とほぼ同様であるので説明を省略又は簡略化する。なお、図13のフローチャートのステップS4では、第2設定部113が複数の第2領域R2を設定する。例えば、ステップS4において、第2設定部113は、第1主成分D1の方向に沿って複数の第2領域R2を順次設定する。 13 and 14 are flowcharts showing other examples of the processing method according to this embodiment. In this flowchart, steps S1 to S5 are almost the same as the processing shown in FIG. 12 described above, so the explanation will be omitted or simplified. Note that in step S4 of the flowchart in FIG. 13, the second setting unit 113 sets a plurality of second regions R2. For example, in step S4, the second setting unit 113 sequentially sets a plurality of second regions R2 along the direction of the first principal component D1.

第2設定部113は、第1主成分D1の方向における第2領域R2の長さ(この場合、厚さ)を設定するが、この長さが短いと(この場合、厚さが薄いと)第2領域R2の数が増えるので、データ量の観点からその後の処理負担が増加する。従って、第2設定部113は、処理装置1Aの処理能力に基づいて、第2領域R2の数、又は第1主成分D1の方向の長さを設定してもよい。 The second setting unit 113 sets the length (in this case, the thickness) of the second region R2 in the direction of the first principal component D1, but if this length is short (in this case, if the thickness is thin) Since the number of second regions R2 increases, the subsequent processing load increases in terms of data amount. Therefore, the second setting unit 113 may set the number of second regions R2 or the length in the direction of the first principal component D1 based on the processing capacity of the processing device 1A.

ステップS5に続いて、特徴量算出部114は、第2点群データP2から特徴量として最短経路長を算出する(ステップS11)。続いて、第1生成部12又は特徴量算出部114は、最短経路長を算出した第2点群データP2の第2領域R2が最後の第2領域R2か否かを判断する(ステップS12)。最後の第2領域R2でない場合(ステップS12のNO)、ステップS4に戻り、第2設定部113は、先に設定した第2領域R2に対して次の第2領域R2を設定する。最後の第2領域R2である場合(ステップS12のYES)、判定部115は、隣り合う第2領域R2において最短経路長を比較して変化量を抽出する(ステップS13)。 Following step S5, the feature amount calculation unit 114 calculates the shortest path length as a feature amount from the second point group data P2 (step S11). Next, the first generation unit 12 or the feature amount calculation unit 114 determines whether the second region R2 of the second point group data P2 for which the shortest path length has been calculated is the last second region R2 (step S12). . If it is not the last second region R2 (NO in step S12), the process returns to step S4, and the second setting unit 113 sets the next second region R2 for the previously set second region R2. If it is the last second region R2 (YES in step S12), the determination unit 115 compares the shortest path lengths in adjacent second regions R2 and extracts the amount of change (step S13).

続いて、判定部115は、最短経路長の変化量が所定値を超えるか否かを判断する(ステップS14)。変化量が所定値を超える場合(ステップS14のNO)、再設定部116は、その判定に用いた隣り合う第2領域R2の一方又は双方を、先に設定した第1領域R1から除外し、変化量が所定値を超えない範囲を新たな第1領域に設定する(ステップS15)。そして、ステップS2からステップS14までの処理が繰り返される。この一連の処理により、最短経路長の変化量が大きい部分が除外されて、ユーザが求める部位(分析対象領域)をロバスト性が高く高精度で形状又は姿勢を推定することが可能となる。 Subsequently, the determining unit 115 determines whether the amount of change in the shortest path length exceeds a predetermined value (step S14). If the amount of change exceeds the predetermined value (NO in step S14), the resetting unit 116 excludes one or both of the adjacent second regions R2 used for the determination from the previously set first region R1, A range in which the amount of change does not exceed a predetermined value is set as a new first region (step S15). Then, the processes from step S2 to step S14 are repeated. Through this series of processing, parts where the amount of change in the shortest path length is large are excluded, and it becomes possible to estimate the shape or posture of the part (analysis target area) desired by the user with high robustness and high accuracy.

また、変化量が所定値を超えない場合(ステップS14のYES)、第2生成部13は、第2点群データP2から人体Mの情報を生成する(ステップS16)。このステップS16は、図12に示すステップS6と同様であるため、説明を省略する。 Furthermore, if the amount of change does not exceed the predetermined value (YES in step S14), the second generation unit 13 generates information on the human body M from the second point group data P2 (step S16). This step S16 is similar to step S6 shown in FIG. 12, so the explanation will be omitted.

なお、図13及び図14に示すフローチャートでは、ステップS5からステップS12の処理において、複数の第2領域R2を順次設定して最短経路長を算出しているが、この処理に限定されない。例えば、ステップS5において、第2設定部113により複数の第2領域R2を設定し、ステップS6において、第1生成部12は、複数の第2領域R2のそれぞれから点群(点データ)を抽出して複数の第2点群データP2を生成し、ステップS11において、特徴量算出部114は、複数の第2点群データP2のそれぞれから最短経路長を算出するといった、最短経路長の算出を複数の第2点群データP2に対して並行して行ってもよい。 Note that in the flowcharts shown in FIGS. 13 and 14, in the processing from step S5 to step S12, the plurality of second regions R2 are sequentially set to calculate the shortest path length, but the process is not limited to this. For example, in step S5, the second setting unit 113 sets a plurality of second regions R2, and in step S6, the first generation unit 12 extracts a point group (point data) from each of the plurality of second regions R2. to generate a plurality of second point cloud data P2, and in step S11, the feature value calculation unit 114 calculates the shortest path length from each of the plurality of second point cloud data P2. It may be performed in parallel for a plurality of second point group data P2.

[第2実施形態]
次に、第2実施形態について説明する。図15は、第2実施形態に係る処理装置の一例を示す図である。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図15に示す処理装置1Bは、位置検出部2(例、点群取得部)が処理装置1Bの内部に設けられる(内蔵される)。この処理装置1Bは、1つのユニット(パッケージ)内に基準点群データPFを取得する機能を含む。処理装置1Bは、例えば、ノート型パソコンが用いられ、検出部21は、ノート型パソコンに搭載されているカメラが用いられる。
[Second embodiment]
Next, a second embodiment will be described. FIG. 15 is a diagram illustrating an example of a processing device according to the second embodiment. In this embodiment, the same components as those in the above-described embodiment are given the same reference numerals, and the description thereof will be omitted or simplified. In the processing device 1B shown in FIG. 15, a position detection unit 2 (eg, a point cloud acquisition unit) is provided (built-in) inside the processing device 1B. This processing device 1B includes a function of acquiring reference point group data PF in one unit (package). For example, a notebook computer is used as the processing device 1B, and a camera installed in the notebook computer is used as the detection unit 21.

処理装置1Bは、別に位置検出部2を用意する必要がなく、携帯時等において利便性を有する。なお、処理装置1Bにおいて、位置検出部2の記憶部23は、処理装置1Bが備える記憶部15と兼用されてもよい。すなわち、記憶部23は、処理装置1Bになくてもよい。 The processing device 1B does not require a separate position detection unit 2, and is convenient when being carried. Note that in the processing device 1B, the storage unit 23 of the position detection unit 2 may also be used as the storage unit 15 included in the processing device 1B. That is, the storage unit 23 does not need to be included in the processing device 1B.

[第3実施形態]
次に、第3実施形態について説明する。図16は、第3実施形態に係る処理装置の一例を示す図である。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図16に示す処理装置1Cは、位置検出部2(例、点群取得部)の基準点群データ生成部22及び記憶部23が処理装置1Cの内部に設けられる(内蔵される)。そして、検出部21は、処理装置1Cの外部に設けられる態様である。検出部21は、人体M(物体)を撮像可能な構成を有すればよく、例えば、カメラ、撮像機能を有する携帯端末(例、スマートフォン、タブレット)であってもよい。検出部21は、人体Mの位置情報として、デプスマップを処理装置1C(基準点群データ生成部22)に出力する。
[Third embodiment]
Next, a third embodiment will be described. FIG. 16 is a diagram illustrating an example of a processing device according to the third embodiment. In this embodiment, the same components as those in the above-described embodiment are given the same reference numerals, and the description thereof will be omitted or simplified. In the processing device 1C shown in FIG. 16, a reference point cloud data generation unit 22 and a storage unit 23 of the position detection unit 2 (eg, point cloud acquisition unit) are provided (built-in) inside the processing device 1C. The detection unit 21 is provided outside the processing device 1C. The detection unit 21 only needs to have a configuration capable of capturing an image of the human body M (object), and may be, for example, a camera or a mobile terminal (eg, a smartphone, a tablet) having an image capture function. The detection unit 21 outputs the depth map as position information of the human body M to the processing device 1C (reference point group data generation unit 22).

処理装置1Cは、物体(この場合、人体M)を撮像可能な検出部21を用意するだけで、検出部21から人体Mの画像を取得することにより容易に基準点群データPFを生成することができ、撮像機能を持たないノート型パソコン又はデスクトップ型パソコンを用いることができる。なお、処理装置1Cにおいて、位置検出部2の記憶部23は、処理装置1Cが備える記憶部15と兼用されてもよい。すなわち、記憶部23は、処理装置1Cになくてもよい。 The processing device 1C can easily generate the reference point group data PF by acquiring an image of the human body M from the detection unit 21 by simply preparing the detection unit 21 capable of imaging an object (in this case, the human body M). A laptop computer or desktop computer without an imaging function can be used. Note that in the processing device 1C, the storage section 23 of the position detection section 2 may also be used as the storage section 15 included in the processing device 1C. That is, the storage unit 23 does not need to be included in the processing device 1C.

次に、本実施形態における表示部3に表示される画面などについて説明する。図17から図23は、第1から第3実施形態において、表示部3に表示される画面の一例を示す図である。図17から図23は、例えば、上記した実施形態を人体Mの体型計測に応用した場合の体型計測アプリケーションの画面を例示している。図17は、体型計測アプリケーションの開始画面SAである。この開始画面SAには、「Mesurement」、「User Infomation」、「History」、「Configuration」、「Close」等のアイコンが表示され、ユーザが所望する操作が可能となっている。なお、この体型計測アプリケーションにおいて、ユーザ名は「test」としている。 Next, the screen displayed on the display unit 3 and the like in this embodiment will be explained. 17 to 23 are diagrams showing examples of screens displayed on the display unit 3 in the first to third embodiments. 17 to 23 illustrate, for example, screens of a body measurement application when the above-described embodiment is applied to body measurement of a human body M. FIG. 17 is the start screen SA of the body measurement application. Icons such as "Measurement", "User Information", "History", "Configuration", and "Close" are displayed on this start screen SA, allowing the user to perform desired operations. Note that in this body measurement application, the user name is "test."

ユーザが開始画面SAの「Mesurement」のアイコンを選択すると、図18に示すように、計測画面SBが表示され、「DeviceStatus」がOKの場合には、上記した実施形態のように、位置検出部2の検出部21による人体Mの撮像が可能な状態を示す。「DeviceStatus」がOKの場合、計測画面SBにおける「Device1」などのアイコンの下方に、上記した位置検出部2で撮像される画像が表示される。また、「DeviceStatus」がNGの場合、図18の計測画面SBが表示される。なお、位置検出部2あるいは検出部21を複数用いる場合は、「Device1」「Device2」・・・のアイコンの下方に位置検出部2の位置、機種名等を表示させてもよい。なお、上記の処理装置は、「DeviceStatus」の状態に関係なく、「Device1」「Device2」・・・のアイコンの下方に、それぞれの位置検出部2で撮像した画像を表示部3に表示させてもよい。また、上記の処理装置は、計測画面SBに、位置検出部2等により人体Mを撮像すべき方向を教示する教示画像を表示させてもよい。 When the user selects the "Mesurement" icon on the start screen SA, the measurement screen SB is displayed as shown in FIG. 18, and if "DeviceStatus" is OK, the position detection unit 2 shows a state in which the human body M can be imaged by the detection unit 21 of No. 2. When "DeviceStatus" is OK, the image captured by the above-mentioned position detection unit 2 is displayed below the icon such as "Device1" on the measurement screen SB. Further, if the "DeviceStatus" is NG, the measurement screen SB of FIG. 18 is displayed. Note that when a plurality of position detecting sections 2 or detecting sections 21 are used, the position, model name, etc. of the position detecting section 2 may be displayed below the "Device 1", "Device 2", etc. icons. Note that the above processing device causes the display unit 3 to display images captured by the respective position detection units 2 below the icons of “Device1”, “Device2”, etc., regardless of the state of “DeviceStatus”. Good too. Further, the processing device described above may display, on the measurement screen SB, a teaching image that teaches the direction in which the human body M should be imaged by the position detection unit 2 or the like.

計測画面SBには「PoseModel」のアイコンの下方に、撮像時に人体Mに要求する姿勢の画像を表示している。ユーザは、この姿勢の画像を参酌することにより撮像時の姿勢を容易に把握することができる。また、ユーザが「PoseModel」のアイコン又は姿勢の画像を操作することにより、計測画面SBに表示される姿勢を変更できる。変更時には、「PoseModel1」、「PoseModel2」・・・といったアイコンと、アイコンに関連付けられている姿勢の画像とが表示される。 On the measurement screen SB, an image of the posture required of the human body M at the time of imaging is displayed below the "PoseModel" icon. By considering the image of this posture, the user can easily understand the posture at the time of imaging. Furthermore, the user can change the posture displayed on the measurement screen SB by operating the "PoseModel" icon or the posture image. When changing, icons such as "PoseModel1", "PoseModel2", etc., and images of postures associated with the icons are displayed.

図18において、ユーザが計測画面SBの「Capture1」のアイコンを選択すると、例えば、「Device1」に示される位置検出部2あるいは検出部21により人体Mの撮像を行い、その撮像データから基準点群データ生成部22が基準点群データPFを生成する。生成した基準点群データPFは、計測画面SBにおいて「Device1」のアイコンの下方に表示されてもよい。 In FIG. 18, when the user selects the "Capture1" icon on the measurement screen SB, for example, the position detection unit 2 or the detection unit 21 shown in "Device1" images the human body M, and a reference point group is generated from the imaged data. The data generation unit 22 generates reference point group data PF. The generated reference point group data PF may be displayed below the "Device 1" icon on the measurement screen SB.

また、ユーザが開始画面SAの「User Infomation」のアイコンを選択すると、図19に示すように、ユーザ管理画面SCが表示され、ユーザ情報の登録や編集、削除を行うことができる。例えば、ユーザ情報を登録する場合には、図20に示すような新規ユーザ登録画面SC1のウインドウを表示させることができる。新規のユーザが、新規ユーザ登録画面SC1のウインドウに所定事項を入力することで、この体型計測アプリケーションの各種データを管理可能となる。 Further, when the user selects the "User Information" icon on the start screen SA, a user management screen SC is displayed as shown in FIG. 19, and user information can be registered, edited, and deleted. For example, when registering user information, a new user registration screen SC1 window as shown in FIG. 20 can be displayed. A new user can manage various data of this body measurement application by inputting predetermined items into the window of the new user registration screen SC1.

ユーザが開始画面SAの「History」のアイコンを選択すると、図21に示すように、過去の計測結果リストを含むデータ履歴画面SDが表示される。データ履歴画面SDには、ユーザにおける人体Mの部位の外周寸法などが計測した日付に関連づけられて表示される。図21に示すデータ履歴画面SDでは、「LeftUpperArm」、「Waist」の外周寸法が計測した日付に関連づけられて表示されている。「LeftUpperArm」、「Waist」の外周寸法は、上記した実施形態の説明において、第2領域R2が「LeftUpperArm」(左上腕)、「Waist」(ウェスト、胴)であるときの第2点群データP2から生成された三次元モデルから取得される。すなわち、本実施形態では、主成分分析された第2点群データP2から三次元モデルが生成されるので、「LeftUpperArm」、「Waist」の外周寸法が精度よく計測されている。 When the user selects the "History" icon on the start screen SA, as shown in FIG. 21, a data history screen SD including a list of past measurement results is displayed. On the data history screen SD, the outer circumferential dimensions of the parts of the human body M of the user are displayed in association with the date of measurement. In the data history screen SD shown in FIG. 21, the outer circumferential dimensions of "LeftUpperArm" and "Waist" are displayed in association with the date of measurement. The outer circumferential dimensions of "LeftUpperArm" and "Waist" are the second point group data when the second region R2 is "LeftUpperArm" (left upper arm) and "Waist" (waist, torso) in the description of the above embodiment. It is obtained from the three-dimensional model generated from P2. That is, in this embodiment, since a three-dimensional model is generated from the second point group data P2 subjected to principal component analysis, the outer circumferential dimensions of "LeftUpperArm" and "Waist" are measured with high accuracy.

ユーザがデータ履歴画面SDの「Waist」のアイコンを選択すると、図22に示すように、計測位置調整画面SD1が表示される。計測位置調整画面SD1は、データ履歴画面SDに表示される数値を調整(変更)する画面である。計測位置調整画面SD1には、「Position Result」に基準位置(+0)から+方向(上方)及び-方向(下方)に複数の位置と、その位置での外周の寸法が並べて表示されている。図22に示す計測位置調整画面SD1は、基準位置(+0)が選択されている。ユーザは、他の位置(例、+2、-3)のアイコンを選択することにより、データ履歴画面SDに表示される数値を調整(変更)することができる。なお、計測位置調整画面SD1では、選択されている位置を画像上で示す水平方向の水平指示線Hが表示されている。水平指示線Hは、ユーザが選択した位置に応じて移動する。計測位置調整画面SD1では、人体Mの中心における鉛直方向を示す鉛直指示線Vが表示されている。 When the user selects the "Waist" icon on the data history screen SD, a measurement position adjustment screen SD1 is displayed as shown in FIG. 22. The measurement position adjustment screen SD1 is a screen for adjusting (changing) the numerical values displayed on the data history screen SD. On the measurement position adjustment screen SD1, a plurality of positions in the + direction (upward) and - direction (downward) from the reference position (+0) and the dimensions of the outer periphery at the positions are displayed side by side in "Position Result". In the measurement position adjustment screen SD1 shown in FIG. 22, the reference position (+0) is selected. The user can adjust (change) the numerical value displayed on the data history screen SD by selecting icons at other positions (eg, +2, -3). Note that on the measurement position adjustment screen SD1, a horizontal direction line H indicating the selected position on the image is displayed. The horizontal indication line H moves according to the position selected by the user. On the measurement position adjustment screen SD1, a vertical direction line V indicating the vertical direction at the center of the human body M is displayed.

続いて、ユーザが開始画面SAの「Configuration」のアイコンを選択すると、図23に示すように、カメラ位置調整画面SEが表示される。カメラ位置調整画面SEでは、例えば、データの保存場所の設定、カメラ位置の調整等のデバイス(例、位置検出部2)の諸設定を行うことができる。 Next, when the user selects the "Configuration" icon on the start screen SA, a camera position adjustment screen SE is displayed as shown in FIG. 23. On the camera position adjustment screen SE, various settings of the device (eg, position detection unit 2), such as setting a data storage location and adjusting the camera position, can be performed, for example.

以上のように、本実施形態によれば、物体(例、人体M)の一部又は全部について高精度に三次元モデル又は姿勢情報を生成することができる。物体が人体Mである場合、人体Mの各部位の三次元形状が高精度で生成されるので、人体M各部位のサイズ(外周の寸法)を容易かつ精度よく取得できる。また、本実施形態によれば、人体Mの各部位の姿勢情報が高精度で生成されるので、運動時(例、バレエ、野球、ゴルフ)における人体Mの各部位の姿勢(例、大腿の向き、上腕の向き、バレエのフォーム、ピッチングフォーム、バッティングフォーム、ゴルフスイングのフォーム)を容易かつ精度よく取得できる。 As described above, according to the present embodiment, a three-dimensional model or posture information can be generated with high precision for part or all of an object (eg, human body M). When the object is a human body M, the three-dimensional shape of each part of the human body M is generated with high precision, so the size (outer circumference dimension) of each part of the human body M can be easily and precisely acquired. Furthermore, according to the present embodiment, since the posture information of each part of the human body M is generated with high precision, the posture of each part of the human body M (for example, the thigh) during exercise (for example, ballet, baseball, golf) is generated with high precision. orientation, upper arm orientation, ballet form, pitching form, batting form, golf swing form) can be easily and accurately acquired.

なお、上記した処理装置1A(又は姿勢解析システムSYS)は、位置検出部2を2以上備えてもよい。また、姿勢解析システムSYSは、2以上の処理装置1A、1B、1Cを備えてもよい。 Note that the processing device 1A (or posture analysis system SYS) described above may include two or more position detection units 2. Further, the posture analysis system SYS may include two or more processing devices 1A, 1B, and 1C.

上記した実施形態において、処理装置1A、1B、1Cの生成部11、第1生成部12、第2生成部13、算出部14、第1設定部111、特徴抽出部112、第2設定部113、特徴量算出部114、判定部115、再設定部116、姿勢推定部117、モデル生成部118、レンダリング処理部119、及び位置検出部2の基準点群データ生成部22は、プログラムがコンピュータに読み込まれることにより、ソフトウェアとハードウェア資源とが協働した具体的手段として実現されてもよい。 In the embodiments described above, the generation unit 11, the first generation unit 12, the second generation unit 13, the calculation unit 14, the first setting unit 111, the feature extraction unit 112, and the second setting unit 113 of the processing devices 1A, 1B, and 1C. , the feature calculation unit 114, the determination unit 115, the resetting unit 116, the posture estimation unit 117, the model generation unit 118, the rendering processing unit 119, and the reference point group data generation unit 22 of the position detection unit 2, By being read, the software and hardware resources may be realized as a concrete means of cooperation.

また、上述の実施形態において、処理装置1A、1B、1Cは、例えばコンピュータシステムを含む。処理装置1A、1B、1Cは、記憶部15に記憶されている処理プログラムを読み出し、この処理プログラムに従って各種の処理を実行する。この処理プログラムは、例えば、コンピュータに、物体上の各点の位置情報による第1点群データを主成分分析した第1主成分の方向を求めることと、第1点群データから第1主成分の方向に交差する領域内の点を抽出した第2点群データを生成することと、第2点群データにより物体の情報を生成することと、を実行させる。このプログラムは、コンピュータ読み取り可能な記憶媒体(例、非一時的な記録媒体、non-transitory tangible media)に記録されて提供されてもよい。 Furthermore, in the embodiments described above, the processing devices 1A, 1B, and 1C include, for example, computer systems. The processing devices 1A, 1B, and 1C read processing programs stored in the storage unit 15 and execute various processes according to the processing programs. This processing program, for example, causes a computer to obtain the direction of the first principal component by principal component analysis of the first point cloud data based on the position information of each point on the object, and to calculate the direction of the first principal component from the first point cloud data. The second point group data is generated by extracting points within a region that intersects the direction, and the object information is generated from the second point group data. This program may be provided by being recorded on a computer-readable storage medium (eg, non-transitory tangible media).

なお、実施形態について説明したが、本発明の技術範囲は、上述の実施形態などで説明した内容に限定されない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、実施形態において示した各処理の実行順序は、前の処理の出力を後の処理で用いない限り、任意の順序で実現可能である。また、上記した実施形態における処理に関して、便宜上「まず」、「次に」、「続いて」、「そして」等を用いて説明したとしても、この順序で実施することが必須ではない。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 Although the embodiments have been described, the technical scope of the present invention is not limited to the content described in the above-mentioned embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. Furthermore, the requirements described in the above embodiments and the like can be combined as appropriate. Moreover, the execution order of each process shown in the embodiment can be implemented in any order as long as the output of the previous process is not used in the subsequent process. Further, even if the processing in the above-described embodiment is explained using "first", "next", "sequently", "and", etc. for convenience, it is not essential that the processing be performed in this order. In addition, to the extent permitted by law, the disclosures of all documents cited in the above-mentioned embodiments are incorporated into the description of the main text.

なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、日本特許出願である特願2018-143688、及び、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 Note that the technical scope of the present invention is not limited to the aspects described in the above-mentioned embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. Furthermore, the requirements described in the above embodiments and the like can be combined as appropriate. In addition, to the extent permitted by law, the disclosures of Japanese Patent Application No. 2018-143688, which is a Japanese patent application, and all documents cited in the above-mentioned embodiments are incorporated into the description of the main text.

D1、D11・・・第1主成分 M・・・人体(物体) K・・・関節(接続部分) LX・・・線分 P1、P11・・・第1点群データ P2、P2A~P2M・・・第2点群データ PF・・・基準点群データ Q・・・外形特徴 Q1・・・第1部位 Q2・・・第2部位 R1、R11・・・第1領域 R2、R2A、R2B~R2M、R21A~R21E・・・第2領域 RS2A・・・平面(面) SYS・・・姿勢解析システム 1A、1B、1C・・・処理装置 2・・・位置検出部(点群取得部) 11・・・生成部 12・・・第1生成部 13・・・第2生成部 14・・・算出部 22・・・基準点群データ生成部 111・・・第1設定部 112・・・特徴抽出部 113・・・第2設定部 114・・・特徴量算出部 115・・・判定部 116・・・再設定部 D1, D11...First principal component M...Human body (object) K...Joint (connection part) LX...Line segment P1, P11...First point group data P2, P2A to P2M・...Second point group data PF...Reference point group data Q...External feature Q1...First part Q2...Second part R1, R11...First region R2, R2A, R2B~ R2M, R21A to R21E...Second region RS2A...Plane (plane) SYS...Posture analysis system 1A, 1B, 1C...Processing device 2...Position detection unit (point cloud acquisition unit) 11 ...Generation unit 12...First generation unit 13...Second generation unit 14...Calculation unit 22...Reference point group data generation unit 111...First setting unit 112...Characteristics Extraction unit 113... Second setting unit 114... Feature value calculation unit 115... Judgment unit 116... Resetting unit

Claims (12)

第1点群データを取得する取得部と、
前記第1点群データを主成分分析することにより主成分方向を決定し、前記主成分方向複数の位置において、前記主成分方向に交差する領域内に存在する各点を抽出した第2点群データが示す形状の特徴量を算出する算出部と、
前記主成分方向の複数の位置における前記特徴量の変化を判定する判定部と、
を備える処理装置。
an acquisition unit that acquires first point cloud data;
A principal component direction is determined by principal component analysis of the first point cloud data, and a second point is extracted from each point existing in a region intersecting the principal component direction at a plurality of positions in the principal component direction. a calculation unit that calculates the feature amount of the shape indicated by the group data ;
a determination unit that determines a change in the feature amount at a plurality of positions in the principal component direction;
A processing device comprising:
前記算出部は、前記特徴量として、前記第2点群データが示す形状の経路長を算出する、請求項1に記載の処理装置。 The processing device according to claim 1, wherein the calculation unit calculates, as the feature amount, a path length of a shape indicated by the second point group data. 前記算出部は、前記特徴量として、前記第2点群データが示す形状で囲まれた面積を算出する、請求項1に記載の処理装置。 The processing device according to claim 1, wherein the calculation unit calculates, as the feature amount, an area surrounded by a shape indicated by the second point group data. 前記形状は楕円形状であり、前記楕円形状の中心を前記第1点群データの主成分分析により求められる主成分の位置として決定する、請求項1から請求項3の何れか一項に記載の処理装置。 4. The method according to claim 1, wherein the shape is an ellipse, and the center of the ellipse is determined as the position of the principal component obtained by principal component analysis of the first point group data. Processing equipment. 前記形状は、前記主成分方向の第1の位置で前記主成分方向と交差する第1面と、前記主成分方向の第2の位置で前記主成分方向と交差する第2面と、の間に存在する点群のそれぞれを、前記主成分方向へ移動させ、前記主成分方向に交差する1つの面内へ写像したときの点群が示す形状である、請求項2から請求項4の何れか一項に記載の処理装置。 The shape is between a first surface that intersects the principal component direction at a first position in the principal component direction and a second surface that intersects the principal component direction at a second position in the principal component direction. Any one of claims 2 to 4, wherein the point group has a shape shown when each of the point groups existing in is moved in the principal component direction and mapped into a plane intersecting the principal component direction. The processing device according to item 1. 前記算出部は、前記特徴量として、前記主成分方向の第1の位置で前記主成分方向と交差する第1面と、前記主成分方向の第2の位置で前記主成分方向に交差する第2面と、前記第1面と前記第2面との間に存在する点群と、に囲まれた領域の体積を算出する、請求項1に記載の処理装置。 The calculation unit includes, as the feature amount, a first surface that intersects the principal component direction at a first position in the principal component direction, and a first surface that intersects the principal component direction at a second position in the principal component direction. The processing device according to claim 1, which calculates the volume of a region surrounded by two surfaces and a point group existing between the first surface and the second surface. 前記判定部の判定に基づいて、前記第1点群データから前記第1点群データの部分である第1点第1部分データを設定する設定部を備える、
請求項1から請求項6の何れか一項に記載の処理装置。
a setting unit configured to set first point group first partial data, which is a portion of the first point group data, from the first point group data based on the determination of the determination unit;
A processing device according to any one of claims 1 to 6 .
前記算出部は、前記第1点第1部分データを主成分分析することにより算出した新たな主成分の方向を示す第1方向を決定する、
請求項に記載の処理装置。
The calculation unit determines a first direction indicating a direction of a new principal component calculated by principal component analysis of the first point group first partial data.
The processing device according to claim 7 .
群データからモデル情報を生成するモデル生成部を備え、
前記設定部は、前記第1点第1部分データとは異なる第点群第2部分データを設定し、
前記算出部は、前記第点群第2部分データを主成分分析することにより算出した新たな主成分の方向を示す第2方向を決定し、
前記モデル生成部は、前記第1方向および前記第2方向から、前記モデル情報の第1部位と第2部位との接続部分を示す情報を生成する、請求項に記載の処理装置。
Equipped with a model generation unit that generates model information from point cloud data,
The setting unit sets second partial data of the first point group different from the first partial data of the first point group,
The calculation unit determines a second direction indicating a direction of a new principal component calculated by principal component analysis of the first point group second partial data,
The processing device according to claim 8 , wherein the model generation unit generates information indicating a connection portion between the first part and the second part of the model information from the first direction and the second direction.
前記モデル情報は、前記点群データから生成される形状情報と、前記点群データから生成される姿勢情報との少なくとも一方を含む、請求項に記載の処理装置。 The processing device according to claim 9 , wherein the model information includes at least one of shape information generated from the point cloud data and posture information generated from the point cloud data. 請求項1から請求項10の何れか一項に記載の処理装置と、
物体までの距離情報を検出し、前記距離情報から点群データを生成する検出部と、を備える姿勢解析システム。
A processing device according to any one of claims 1 to 10 ,
A posture analysis system comprising: a detection unit that detects distance information to an object and generates point cloud data from the distance information.
コンピュータに実施させるプログラムであって、
第1点群データを取得し、
前記第1点群データを主成分分析することにより主成分方向を決定し、前記主成分方向複数の位置において、前記主成分方向に交差する領域内に存在する各点を抽出した第2点群データが示す形状の特徴量を算出し、
前記主成分方向の複数の位置における前記特徴量の変化を判定する、処理を実行させるプログラム。
A program that causes a computer to execute,
Obtain the first point cloud data,
A principal component direction is determined by principal component analysis of the first point cloud data, and a second point is extracted from each point existing in a region intersecting the principal component direction at a plurality of positions in the principal component direction. Calculate the feature amount of the shape indicated by the group data ,
A program that executes processing for determining changes in the feature amount at a plurality of positions in the principal component direction.
JP2022150449A 2018-07-31 2022-09-21 Processing device, attitude analysis system, and program Active JP7447956B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018143688 2018-07-31
JP2018143688 2018-07-31
PCT/JP2019/027710 WO2020026765A1 (en) 2018-07-31 2019-07-12 Processing device, posture analysis system, processing method and processing program
JP2020533388A JP7147848B2 (en) 2018-07-31 2019-07-12 Processing device, posture analysis system, processing method, and processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020533388A Division JP7147848B2 (en) 2018-07-31 2019-07-12 Processing device, posture analysis system, processing method, and processing program

Publications (2)

Publication Number Publication Date
JP2022171943A JP2022171943A (en) 2022-11-11
JP7447956B2 true JP7447956B2 (en) 2024-03-12

Family

ID=69230645

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020533388A Active JP7147848B2 (en) 2018-07-31 2019-07-12 Processing device, posture analysis system, processing method, and processing program
JP2022150449A Active JP7447956B2 (en) 2018-07-31 2022-09-21 Processing device, attitude analysis system, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020533388A Active JP7147848B2 (en) 2018-07-31 2019-07-12 Processing device, posture analysis system, processing method, and processing program

Country Status (2)

Country Link
JP (2) JP7147848B2 (en)
WO (1) WO2020026765A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008519357A (en) 2004-11-05 2008-06-05 本田技研工業株式会社 Human posture estimation with data-driven probability propagation
JP2016206026A (en) 2015-04-23 2016-12-08 株式会社デンソー Object recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008519357A (en) 2004-11-05 2008-06-05 本田技研工業株式会社 Human posture estimation with data-driven probability propagation
JP2016206026A (en) 2015-04-23 2016-12-08 株式会社デンソー Object recognition device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高田 智,LIDARを用いた歩行者検出のための輪郭形状に基づく特徴記述,第23回 画像センシングシンポジウム SSII2017 [USB] The 23rd Symposium on Sensing via Image Information,日本,画像センシング技術研究会,2017年,SO3-ISS3-03

Also Published As

Publication number Publication date
JP2022171943A (en) 2022-11-11
WO2020026765A1 (en) 2020-02-06
JP7147848B2 (en) 2022-10-05
JPWO2020026765A1 (en) 2021-08-02

Similar Documents

Publication Publication Date Title
CN108475439B (en) Three-dimensional model generation system, three-dimensional model generation method, and recording medium
KR102346320B1 (en) Fast 3d model fitting and anthropometrics
US9159134B2 (en) Method and apparatus for estimating a pose
JP6548967B2 (en) Image processing apparatus, image processing method and program
JP6369811B2 (en) Gait analysis system and gait analysis program
US20160071322A1 (en) Image processing apparatus, image processing system and storage medium
KR20150079585A (en) System and method for deriving accurate body size measures from a sequence of 2d images
WO2015183550A1 (en) Determining three-dimensional information from projections or placement of two-dimensional patterns
JP2019096113A (en) Processing device, method and program relating to keypoint data
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
CN113474816A (en) Elastic dynamic projection mapping system and method
US11885611B2 (en) Detection device, processing device, equipment, detection method, and detection program
KR101499699B1 (en) Apparatus and Method for generating user's three dimensional body model based on depth information
JP7024876B2 (en) Detection device, processing device, detection method, and processing program
JP7447956B2 (en) Processing device, attitude analysis system, and program
JP7200994B2 (en) Processing device, detection device, processing method, and processing program
US20240013415A1 (en) Methods and systems for representing a user
JP2014225301A (en) Image processing apparatus, method, and program
US20180274918A1 (en) Three-dimensional measurement apparatus, non-transitory computer readable medium, and three-dimensional measurement system
JP7234595B2 (en) Detection device, processing device, detection method, and processing program
JP2022037506A (en) Detection device, processing device, detection method, and processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R150 Certificate of patent or registration of utility model

Ref document number: 7447956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150