JP7011416B2 - Detection device, detection system, processing device and detection program - Google Patents
Detection device, detection system, processing device and detection program Download PDFInfo
- Publication number
- JP7011416B2 JP7011416B2 JP2017143770A JP2017143770A JP7011416B2 JP 7011416 B2 JP7011416 B2 JP 7011416B2 JP 2017143770 A JP2017143770 A JP 2017143770A JP 2017143770 A JP2017143770 A JP 2017143770A JP 7011416 B2 JP7011416 B2 JP 7011416B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- unit
- detection
- posture
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、検出装置、検出システム、処理装置及び検出プログラムに関する。 The present invention relates to a detection device, a detection system, a processing device and a detection program.
運動中の人物(ユーザ)に対して指導用の映像データを提供する技術、運動中の人物を適切な状態で撮像する技術が提案されている(例えば、下記の特許文献1参照)。しかしながら、そういった指導用の映像データ等は、ユーザにとって最適なデータではない場合もある。
A technique for providing video data for instruction to a person (user) who is exercising and a technique for imaging a person who is exercising in an appropriate state have been proposed (see, for example,
上記課題を解決するために、本発明の第1の態様においては、検出装置を提供する。検出装置は、ユーザの人体を検出する検出部を備えてよい。検出装置は、検出部による検出結果から得られるユーザの姿勢データと、過去に取得されたユーザの教師データとを比較する比較部を備えてよい。検出装置は、比較部による比較結果に基づいて、姿勢データを用いて教師データを更新する更新部を備えてよい。比較部は、教師データと姿勢データとの類似度を算出してよい。更新部は、類似度に基づいて、教師データを更新してよい。 In order to solve the above problems, in the first aspect of the present invention , a detection device is provided. The detection device may include a detection unit that detects the human body of the user. The detection device may include a comparison unit that compares the posture data of the user obtained from the detection result by the detection unit with the teacher data of the user acquired in the past. The detection device may include an update unit that updates the teacher data using the posture data based on the comparison result by the comparison unit . The comparison unit may calculate the degree of similarity between the teacher data and the posture data. The updater may update the teacher data based on the similarity.
本発明の第2の態様においては、検出装置を提供する。検出装置は、ユーザの人体を検出する検出部を備えてよい。検出装置は、検出部による検出結果から得られるユーザの姿勢データと、過去に取得されたユーザの教師データとを比較する比較部を備えてよい。検出装置は、比較部による比較結果に基づいて、ユーザの姿勢データを用いて教師データを更新する更新部を備えてよい。比較部は、検出部により人体が繰り返し検出された検出結果から得られる複数の姿勢データのそれぞれと、教師データとを比較してよい。更新部は、比較部による比較結果に基づいて、複数の姿勢データから選択される姿勢データを用いて教師データを更新してよい。本発明の第3の態様においては、検出装置を提供する。検出装置は、ユーザの人体を検出する検出部を備えてよい。検出装置は、検出部による検出結果から得られるユーザの姿勢データと、過去に取得されたユーザの教師データとを比較して得られる比較結果に基づいて、姿勢データを用いて教師データを更新する更新部を備えてよい。検出装置は、比較結果に基づいて、教師データを更新するかを判定する判定部を備えてよい。本発明の第4の態様においては、検出装置を提供する。検出装置は、ユーザの人体を検出する検出部を備えてよい。検出装置は、検出部による検出結果から得られるユーザの姿勢データと、過去に取得されたユーザの教師データとを比較して得られる比較結果に基づいて、姿勢データを用いて教師データを更新する更新部を備えてよい。検出装置は、検出部による検出結果に基づいて、人体の呼吸のタイミングを検出するタイミング検出部を備えてよい。 In the second aspect of the present invention , a detection device is provided. The detection device may include a detection unit that detects the human body of the user. The detection device may include a comparison unit that compares the posture data of the user obtained from the detection result by the detection unit with the teacher data of the user acquired in the past . The detection device may include an update unit that updates the teacher data using the user's posture data based on the comparison result by the comparison unit. The comparison unit may compare each of the plurality of posture data obtained from the detection result in which the human body is repeatedly detected by the detection unit with the teacher data. The update unit may update the teacher data using the posture data selected from the plurality of posture data based on the comparison result by the comparison unit. In the third aspect of the present invention, a detection device is provided. The detection device may include a detection unit that detects the human body of the user. The detection device updates the teacher data using the posture data based on the comparison result obtained by comparing the user's posture data obtained from the detection result by the detection unit with the user's teacher data acquired in the past. It may be equipped with an update unit. The detection device may include a determination unit that determines whether to update the teacher data based on the comparison result. A fourth aspect of the present invention provides a detection device. The detection device may include a detection unit that detects the human body of the user. The detection device updates the teacher data using the posture data based on the comparison result obtained by comparing the user's posture data obtained from the detection result by the detection unit with the user's teacher data acquired in the past. It may be equipped with an update unit. The detection device may include a timing detection unit that detects the timing of respiration of the human body based on the detection result by the detection unit.
本発明の第5の態様においては、検出システムを提供する。検出システムは、第1の態様から第4の態様のいずれかの検出装置を備えてよい。 A fifth aspect of the present invention provides a detection system. The detection system may include a detection device according to any one of the first to fourth aspects.
本発明の第6の態様においては、処理装置を提供する。処理装置は、ユーザの人体を検出した検出結果から得られるユーザの姿勢データと、過去に取得されたユーザの教師データとを比較する比較部を備えてよい。処理装置は、比較部による比較結果に基づいて、姿勢データを用いて教師データを更新する更新部を備えてよい。比較部は、人体が繰り返し検出された検出結果から得られる複数の姿勢データのそれぞれと、教師データとを比較してよい。更新部は、比較部による比較結果に基づいて、複数の姿勢データから選択される姿勢データを用いて教師データを更新してよい。 A sixth aspect of the present invention provides a processing apparatus. The processing device may include a comparison unit that compares the posture data of the user obtained from the detection result of detecting the human body of the user with the teacher data of the user acquired in the past. The processing device may include an update unit that updates the teacher data using the posture data based on the comparison result by the comparison unit . The comparison unit may compare each of the plurality of posture data obtained from the detection result in which the human body is repeatedly detected with the teacher data. The update unit may update the teacher data using the posture data selected from the plurality of posture data based on the comparison result by the comparison unit.
本発明の第7の態様においては、検出プログラムを提供する。検出プログラムは、コンピュータに、ユーザの人体を繰り返し検出した検出結果から得られるユーザの姿勢データのそれぞれと、過去に取得されたユーザの教師データとを比較させてよい。検出プログラムは、コンピュータに、比較の結果に基づいて、複数の姿勢データから選択される姿勢データを用いて教師データを更新させてよい。 In the seventh aspect of the present invention , a detection program is provided. The detection program may cause the computer to compare each of the user 's posture data obtained from the detection result of repeatedly detecting the user's human body with the user's teacher data acquired in the past. The detection program may cause the computer to update the teacher data with the posture data selected from the plurality of posture data based on the result of the comparison.
本発明の第8の態様においては、検出プログラムを提供する。検出プログラムは、コンピュータに、ユーザの人体を検出した検出結果から得られるユーザの姿勢データと、過去に取得されたユーザの教師データとの類似度を算出させてよい。検出プログラムは、コンピュータに、類似度に基づいて、姿勢データを用いて教師データを更新させてよい。本発明の第9の態様においては、検出プログラムを提供する。検出プログラムは、コンピュータに、ユーザの人体を検出した検出結果から得られるユーザの姿勢データと、過去に取得されたユーザの教師データとを比較させてよい。検出プログラムは、比較の結果に基づいて、姿勢データを用いて教師データを更新させてよい。検出プログラムは、人体を検出した検出結果から人体の呼吸のタイミングを検出させてよい。 In the eighth aspect of the present invention , a detection program is provided. The detection program may cause the computer to calculate the degree of similarity between the user 's posture data obtained from the detection result of detecting the user's human body and the user's teacher data acquired in the past. The detection program may cause the computer to update the teacher data with the posture data based on the similarity . A ninth aspect of the invention provides a detection program. The detection program may cause the computer to compare the user's posture data obtained from the detection result of detecting the user's human body with the user's teacher data acquired in the past. The detection program may update the teacher data with the posture data based on the result of the comparison. The detection program may detect the timing of respiration of the human body from the detection result of detecting the human body.
[第1実施形態]
第1実施形態について説明する。図1は、実施形態に係る検出装置を示す図である。この検出装置1は、例えば、目標(基本)の姿勢(ポーズ、フォーム)に近づくように姿勢をとるユーザUの人体HMを検出する。検出装置1は、例えば、スポーツ(例、野球、サッカー、ゴルフ、体操、エクササイズ、ヨガ、ボディビル)、ファッションショー(例、ウォーキング、ポージング)、ゲーム、又は人物認証(例、セキュリティ)等の各種分野で利用可能である。例えば、ユーザUは、ヨガやゴルフ等をテーマにしたゲームのプレイヤーでもよく、検出装置1は、ゲームをプレイするユーザUの人体HMを検出してもよい。
[First Embodiment]
The first embodiment will be described. FIG. 1 is a diagram showing a detection device according to an embodiment. The
検出装置1は、例えば、姿勢検出装置、動作検出装置、運動支援装置、姿勢評価装置などを含む。実施形態に係る検出システムSYSは、検出装置1を備える。本実施形態における検出システムSYSは、複数の検出装置1を備えてもよいし、検出装置1と後述の表示部4と入力部5との一方または双方を備えてもよい。
The
以下の説明において、検出装置1は、ヨガにおける所定の姿勢(例、三日月のポーズ、猫のポーズ、牛のポーズ、戦士のポーズ)をとるユーザUを検出するものとする。なお、検出装置1が人体HMを検出する際に、衣類、靴、あるいはプロテクタなどの装着物(例、人体HMとともに移動する物体)を付けた状態でもよい。検出装置1による人体HMの検出は、人体HMとともに移動する装着物の検出を含んでもよい。また、検出装置1は、目標の姿勢に配置される物体、又は目標の姿勢をとる生物もしくはロボット(例、人型ロボット)を検出してもよい。
In the following description, the
検出装置1は、ユーザUに対する今回の検出から得られる姿勢データFD(例、現在の人体HMの姿勢データFD)を、教師データTDと比較する(比較処理を実行する)。姿勢データFDは、ユーザUの人体HMの姿勢(例、二次元形状、三次元形状)を表す情報である。本実施形態において、姿勢データFDは、ユーザのヨガに関する姿勢データを含む。例えば、図1において、姿勢データFDは、ヨガの三日月のポーズをとるユーザUの姿勢を表す情報を含む。姿勢データFDは、例えば、人体HMの少なくとも一部の輪郭(例、シルエット)を表す情報を含む。姿勢データFDは、例えば、人体HMの各関節の伸びまたは曲がりが表れた情報を含む。また、姿勢データFDは、例えば、検出部2の検出結果(例、画像など)から推定して特定される人体HMにおける各関節(関節点)を線で結んで表示する情報を含む。
The
また、姿勢データFDは、人体の各部の位置関係を特定可能な情報を含んでもよい。例えば、姿勢データFDは、人体HMの部位の位置情報(例、絶対位置、相対位置、座標)を含んでもよい。人体の位置情報は、例えば、人体HMの末端部分(例、手先、足先、頭)の位置と、人体HMの関節(例、肩、肘、手首、膝)の位置との一方または双方を含む。また、人体HMの位置情報は、例えば、末端部分と関節との間の部分(例、首、前腕、下肢)の位置と、関節と関節との間の部分(例、上腕、上肢)の位置との一方または双方を含む。 Further, the posture data FD may include information that can specify the positional relationship of each part of the human body. For example, the posture data FD may include position information (eg, absolute position, relative position, coordinates) of a part of the human body HM. The position information of the human body includes, for example, one or both of the position of the terminal portion of the human body HM (eg, hands, toes, head) and the position of the joints of the human body HM (eg, shoulders, elbows, wrists, knees). include. Further, the position information of the human body HM is, for example, the position of the part between the end portion and the joint (eg, neck, forearm, lower limb) and the position of the part between the joint and the joint (eg, upper arm, upper limb). Includes one or both of.
教師データTDは、検出装置1による今回(現在)のユーザUの検出よりも前に、同じユーザUに対して行われた検出の検出結果から得られる姿勢データ(以下、過去の姿勢データという)を含む。例えば、教師データTDは、例えば、検出装置1が人体HMを今回よりも前に検出した検出結果から得られた姿勢データ、又は初期(出荷時を含む)に設定された姿勢データである。教師データTDは、検出装置1と別の検出装置が人体HMを今回よりも前に検出した検出結果から得られた姿勢データでもよい。
The teacher data TD is posture data (hereinafter referred to as past posture data) obtained from the detection result of the detection performed for the same user U prior to the detection of the user U this time (currently) by the
検出装置1は、上記の比較処理の比較結果に基づいて、ユーザUの姿勢データFDを用いて教師データTDを更新して設定する(更新処理を実行する)。ユーザUは、例えばヨガの上達(例、レベル)に応じて、検出装置1に更新処理を実行させてもよい。例えば、ユーザUは、自身の体格、体形、柔軟性などを加味して(例、重み付けなどを係数化)、検出装置1に教師データTDを設定させてもよい。ユーザUは、例えば更新された教師データTDを新たな教師データとして参考にして、ヨガを行ってもよい。ヨガを実施した後に、ユーザUは、例えば、自身に合っていると判断した姿勢データを、教師データとして選択してもよい。
The
検出装置1(又は検出システムSYS)は、検出部2、処理装置3、表示部4、及び入力部5を備える。検出部2は、ユーザUの人体HMを光学的に検出する。処理装置3は、検出部2の検出結果(例、撮像画像などの受光結果)から得られる情報を処理する。処理装置3は、ユーザUの姿勢データFDとユーザUの教師データTDとを比較する。処理装置3は、姿勢データFDと教師データTDとの比較結果に基づいて、姿勢データFDを用いて教師データTDを設定して更新する。検出装置1は、表示部4と入力部5の一方または双方を備えなくてもよい。例えば、表示部4(例、表示装置)と入力部5(入力装置)との一方または双方は、検出装置1の外部装置であって、検出システムSYSは、上記の外部装置を備えてもよい。以下、検出装置1の各部について説明する。
The detection device 1 (or detection system SYS) includes a
検出部2は、例えば、センサ11および記憶部12を備える。センサ11は、ユーザUの人体HMからの光を検出する。例えば、検出部2は、ユーザUの人体HMへ照明光を照射し、センサ11は、照明光の照射によって人体HMから放射される光を検出する。上記の照明光は、可視光を含んでもよいし、非可視光(例、赤外光、紫外光)を含んでもよい。また、センサ11が検出する光は、可視光を含んでもよいし、非可視光(例、赤外光、紫外光)を含んでもよい。
The
センサ11は、例えば、所定の周波数(例、サンプリングレート、フレームレート)で検出処理を実行する。センサ11は、例えば、撮像素子のような受光素子を含む。撮像素子は、例えば、CCDイメージセンサあるいはCMOSイメージセンサなどである。センサ11は、例えば、撮像処理によって人体HMを光学的に検出する。センサ11は、その検出結果として、例えば撮像した画像(以下、撮像画像という)のデータ(例、RGBデータやグレースケールなどの画素値)を出力する。
The
センサ11は、人体HMに対して予め定められた位置(配置位置)と方向(検出方向)とから、人体HMを検出する。例えば、人体HMは、所定の領域(例、ヨガマット、エクササイズマットなどの運動領域)においてヨガを行い、センサ11は、上記の所定の領域に対して予め位置決めされる。
The
検出部2は、例えばユーザUがヨガを行う前に、センサ11によって上記の所定の領域を撮像してもよい。検出装置1は、センサ11が撮像した画像を表示部4に表示させてもよい。ユーザUは、ヨガを行う前に、表示部4に表示される画像において上記の所定の領域(例、ヨガマット)が所定位置になるように、センサ11と所定の領域との相対位置を調整してもよい。検出装置1は、上記の所定位置を示すマーク(例、ガイド、枠線、グリッド)を、センサ11が撮像した画像とともに表示部4に表示させてもよい。ユーザUは、センサ11と所定の領域との相対位置が調整された状態で、所定の領域においてヨガを行う。
For example, the
記憶部12は、例えば、揮発性メモリまたは不揮発性メモリを含む。記憶部12は、センサ11の検出結果を記憶する。記憶部12は、例えば、センサ11の検出結果を、センサ11が検出を実行したタイミングの情報と関係づけて記憶する。上記のタイミングの情報は、例えば、検出を実行した順に割り付けられる番号(例、フレーム番号)でもよい。また、上記のタイミングの情報は、例えば、人体HMに対する検出を実行したタイミングに基づいた時刻(以下、検出時刻という)でもよい。検出時刻は、例えば、検出部2に内蔵される計時デバイス(例、内部時計)が測定する時刻でもよいし、外部から受信する情報(例、標準時を示す標準電波)によって取得される時刻でもよい。
The
検出部2は、例えば、センサ11によって人体HMを撮像し、その撮像画像のデータ(例、RGBデータやグレースケールなどの画素値)を記憶部12に記憶させる。検出部2は、センサ11の検出結果を外部に出力可能である。例えば、センサ11は、記憶部12に記憶された撮像画像のデータを読み出して、外部に出力する。検出部2は、記憶部12を介することなく(例、リアルタイムで)、検出結果を外部に出力してもよい。この場合、検出部2は、記憶部12を備えなくてもよい。
For example, the
処理装置3は、検出部2が出力する情報(例、検出結果)を処理する情報処理部である。処理装置3は、検出部2と有線または無線によって通信可能に接続される。処理装置3は、検出部2の検出結果として撮像画像のデータを、検出部2から取得(例、受信)する。
The
なお、処理装置3は、検出部2との通信を介することなく、検出部2の検出結果あるいは処理結果を取得してもよい。例えば、処理装置3は、不揮発性メモリなどの記憶媒体を介して、検出部2から検出結果を取得してもよい。例えば、検出部2の記憶部12は、検出部2から取り外し可能なメモリーカードなどの記憶媒体でもよい。処理装置3は、例えば、処理装置3から取り外された記憶部12と接続されることで、検出部2の検出結果を取得してもよい。
The
処理装置3は、処理部13、比較部14、更新部15、及び記憶部16を備える。処理部13は、検出部2から出力される情報(例、検出結果、処理結果)を処理する。処理部13は、例えば、検出部2から出力される撮像画像のデータを処理する画像処理部である。処理部13は、検出部2の検出結果に基づいて、人体HMの姿勢を表す姿勢データFDを生成する。処理部13は、例えば、検出部2の撮像画像に対してエッジ検出処理を施し、撮像画像における人体HM(例、形状、輪郭)を特定して、姿勢データFDを生成する。
The
本実施形態において、センサ11は、予め設定された期間(以下、検出設定期間という)において、人体HMを繰り返し検出する。処理部13は、複数の撮像画像間における人体HMの変化量(例、移動量)を算出する。処理部13は、例えば、前回の撮像画像と今回の撮像画像とで人体HMの変化量が閾値未満である場合に、人体HMが静止したと判定(認識)する。処理部13は、例えば、人体HMが静止したと判定した場合に、その判定の元になるセンサ11の検出結果を用いて姿勢データFDを生成する。
In the present embodiment, the
なお、センサ11は、1枚の画像を撮像し、処理部13は、この画像を用いて姿勢データFDを生成してもよい。また、処理部13は、人体HMの静止を判定しなくてもよい。また、処理部13は、2以上の画像を平均化して、姿勢データFDを生成してもよい。例えば、処理部13は、第1の画像から得られる姿勢データと、第2の画像から得られる姿勢データとの平均(例、加算平均、加重平均)によって、姿勢データFDを生成してもよい。
The
また、処理部13は、パターン認識によって、撮像画像における人体HMの部位(例、頭部、腕部、胴体部、脚部)を特定して、姿勢データFDを生成してもよい。また、処理部13は、撮像画像における人体HMの位置を検出してもよい。例えば、処理部13は、人体HMの各部位の位置を二次元の座標で表してもよい。この二次元の座標は、例えば、撮像画像における水平走査方向の画素の位置と、垂直走査方向の画素の位置とを一組にしたデータでもよい。処理部13は、人体HMの各部位の名称と位置とを関連付けた部位データを生成してもよい。姿勢データFDは、例えば、人体HMの複数の部位の部位データを集積したテーブルデータを含んでもよい。また、姿勢データFDは、撮像画像における人体HMの少なくとも一部の輪郭の位置の情報を含んでもよい。また、姿勢データFDは、例えば、人体HMに付けられた部材(例、装着物、靴、ウェア、マーカー)の位置の情報を含んでもよい。処理部13は、生成した姿勢データFDを記憶部16に記憶させる。
Further, the
記憶部16は、例えば、不揮発性メモリまたはハードディスクを含む。記憶部16は、初期データSD、教師データTD、及び姿勢データFDを記憶する。記憶部16に記憶された姿勢データFDは、ユーザUの人体HMをセンサ11が今回検出した検出結果を処理部13が処理して得られた情報である。本実施形態において、姿勢データFDは、人体HMの二次元形状(例、輪郭線)を表す情報である。記憶部16に記憶された教師データTDは、例えば、過去の姿勢データから選択されたデータである。教師データTDは、姿勢データFDと同じデータ構造である。教師データTDは、姿勢データFDを処理(例、加工)したデータでもよい。例えば、教師データTDは、姿勢データFDの一部を抽出したデータでもよい。
The
初期データSDは、例えば、ユーザUとは別の物体(例、インストラクター、ロボット)がとった所定の姿勢(例、三日月のポーズ)又はユーザUの最初に設定した姿勢(例、初期姿勢)を表す情報である。初期データSDは、例えば、教師データTDと同じデータ構造(例、物体の輪郭の少なくとも一部を表す情報、物体の部位の位置情報)を含む。 The initial data SD is, for example, a predetermined posture (eg, crescent pose) taken by an object other than the user U (eg, instructor, robot) or a posture initially set by the user U (eg, initial posture). Information to represent. The initial data SD includes, for example, the same data structure as the teacher data TD (eg, information representing at least a part of the contour of the object, position information of a part of the object).
上記の過去の姿勢データは、例えば所定の姿勢をとるユーザUが一回も検出されていない場合に、存在しない。教師データTDは、ユーザUの過去の姿勢データが存在しない状態(例、検出装置1の出荷時、検出装置1が最初に使用される前)において、記憶部12に記憶されていない。教師データTDが記憶部12に記憶されていない状態において、初期データSDは、例えば教師データTDの代わりに、姿勢データFDとの比較に利用される。初期データSDは、ユーザUが所定の姿勢を確認することに利用されてもよい。例えば、処理装置3は、初期データSDが示す形状を表示部4に表示させてもよい。
The above-mentioned past posture data does not exist, for example, when the user U who takes a predetermined posture has never been detected. The teacher data TD is not stored in the
処理装置3は、ユーザUがヨガを行う間に、教師データTDが表す形状を表示部4に表示させてもよい。例えば、処理装置3は、予め定められたタイミング(例、スケジュール)に基づいて、教師データTDが表す形状を表示部4に表示させてもよい。また、処理装置3は、教師データTDの元になったセンサ11の検出結果(例、撮像画像)を表示部4に表示させてもよい。ユーザUは、例えば、表示部4に表示される画像を見ながら、画像上の姿勢を手本としてヨガを行ってもよい。
The
比較部14は、姿勢データFDと、過去に取得されたユーザの教師データTDとを比較する。比較部14は、記憶部16から姿勢データFDと教師データTDとを読み出し、読み出した姿勢データFDと教師データTDとを比較する。比較部14は、例えば、姿勢データFDが表す形状(現在の人体HMの形状)と、教師データTDが表す形状(過去の人体HMの形状)とを比較する。
The
比較部14は、例えば、姿勢データFDが表す形状と教師データTDが表す形状とで、大きさを比較する。比較部14は、例えば、姿勢データFDが表す形状と教師データTDが表す形状とで、大きさの差が減少するように、適宜、姿勢データFDを補正する。例えば、比較部14は、姿勢データFDが表す形状と教師データTDが表す形状とで、大きさ(例、人体HMの輪郭に囲まれる面積)が同じになるように、適宜、姿勢データFDが表す形状を拡大または縮小する。比較部14は、姿勢データFDが表す形状と教師データTDが表す形状とで、向きを比較してもよい。比較部14は、例えば、姿勢データFDが表す形状と教師データTDが表す形状とで向きが同じになるように、適宜、姿勢データFDが表す形状の向きを補正(例、回転)してもよい。
The
また、比較部14は、教師データTDと姿勢データFDとの類似度を算出する。例えば、比較部14は、上記のような補正後の姿勢データFDが表す形状と、教師データTDが表す形状とで類似度(例、相関係数)を算出する。比較部14は、例えば、教師データTDが表す形状の全体と姿勢データFDが表す形状の全体とを比較する。比較部14は、人体HMの一部(例、1つの部位、複数の部位)について、教師データTDが表す形状と姿勢データFDが表す形状とを比較してもよい。比較部14は、人体HMの複数の部位間の相対位置(例、上腕と前腕との伸び、曲がり、角度)について、教師データTDが表す形状と姿勢データFDが表す形状とを比較してもよい。
Further, the
また、比較部14は、ユーザUの姿勢データFDとユーザUの教師データTDとの比較を示す比較情報を生成する。比較情報は、例えば、姿勢データFDと教師データTDとの比較を示す画像(以下、比較画像という)を含む。処理装置3は、比較部14が生成した比較画像を表示部4に表示させる。ユーザUは、例えば、表示部4に表示された比較画像を参照し、教師データTDを更新するか否かを示す更新指令を入力部5に入力可能である。
Further, the
入力部5は、ユーザUが姿勢データFDに基づいて教師データTDを更新することに用いられる。入力部5は、姿勢データFDを用いて教師データTDを更新するか否かを示す更新指令の入力を受け付ける。入力部5は、例えば、更新指令の入力時に操作される操作デバイスと、更新指令を受信する受信部との一方または双方を含む。上記の操作デバイスは、例えば、キーボード、マウス、トラックボール、タッチパネル、及び音声入力デバイス(例、マイク)の少なくとも一つを含む。上記の受信部は、例えば、無線または有線の通信機器を含む。
The
なお、入力部5は、更新指令以外の入力を受け付けてもよい。例えば、入力部5は、検出部2による検出の開始させる指令(例、検出開始指令)の入力を受け付けてもよい。例えば、入力部5は、音声入力デバイスを含み、検出装置1は、入力部5に音声で検出開始指令が入力されることで、検出部2に検出を開始させてもよい。また、入力部5は、タッチパネルなどの接触型の入力デバイスであって、検出装置1は、入力部5に検出開始指令が入力された場合に、タイマーなどによって予め設定された遅延時間の経過後に、検出部2に検出を開始させてもよい。
The
更新部15は、比較部14の比較結果に基づいて入力部5に入力された更新指令と、姿勢データFDとに基づいて、教師データTDを更新する。また、更新部15は、教師データTDが存在しない場合、姿勢データFDを教師データTDとして登録する。例えば、所定の姿勢をとるユーザUが一回も検出されていない場合に、教師データTDは存在しない。このような場合、更新部15は、例えばユーザUからの指令に基づいて、または自動で姿勢データFDを教師データTDとして記憶部16に記憶させる。実施形態において、教師データTDの更新は、教師データTDが登録されていない状態(例、初期状態、出荷状態)から、教師データTDが登録された状態への更新を含む。
The
図2は、本実施形態に係る検出装置の処理を示す図である。図2において符号Im1は、比較部14が生成する比較画像である。比較画像Im1は、例えば、姿勢の名称を表す情報D1(図中「三日月のポーズ」)を含む。また、比較画像Im1は、教師データTDが表す形状の部分画像Im2、及び姿勢データFDが表す形状の部分画像Im3を含む。
FIG. 2 is a diagram showing processing of the detection device according to the present embodiment. In FIG. 2, reference numeral Im1 is a comparative image generated by the
図2において、表示部4における画面レイアウトは、現在の姿勢データFDに基づく表示画像(例、Im3)と、教師データTDに基づく表示画像(例、Im2)とが並ぶ画面レイアウトである。画面レイアウトは、例えば、ユーザUが入力部5を介して設定を変更することで、変更可能である。例えば、処理装置3は、現在の姿勢データFDに基づく表示画像(例、Im3)を、教師データTDに基づく表示画像(例、Im2)に対して、同じ大きさで表示させてもよいし、大きく表示させてもよく、小さく表示させてもよい。
In FIG. 2, the screen layout in the
また、現在の姿勢データFDに基づく表示画像(例、Im3)と、教師データTDに基づく表示画像(例、Im2)との一方または双方は、表示部4において表示させる位置を変更可能である。例えば、処理装置3は、ユーザUが入力部5を介して設定を変更することで、教師データTDに基づく表示画像(例、Im2)を表示部4の画面の隅に表示させてもよい。
Further, one or both of the display image based on the current posture data FD (eg, Im3) and the display image based on the teacher data TD (eg Im2) can change the position to be displayed on the
部分画像Im2は、例えば、教師データTDと対応することを示す識別情報D2が付されている。識別情報D2は、例えば、教師データTDの元になる検出の時期の情報(図中「2017/02/10」)である。識別情報D2は、その他の情報でもよく、例えば「過去の姿勢」などの文字情報でもよい。部分画像Im3は、例えば、姿勢データFDに対応することを示す識別情報D3が付されている。識別情報D3は、例えば、姿勢データFDの元になる検出の時期の情報(図中「2017/02/12」)である。識別情報D3は、その他の情報でもよく、例えば「今回の姿勢」などの文字情報でもよい。 The partial image Im2 is attached with identification information D2 indicating that it corresponds to, for example, the teacher data TD. The identification information D2 is, for example, information on the detection time (“2017/02/10” in the figure) that is the source of the teacher data TD. The identification information D2 may be other information, for example, character information such as "past posture". The partial image Im3 is attached with identification information D3 indicating that it corresponds to the posture data FD, for example. The identification information D3 is, for example, information on the detection time (“2017/02/12” in the figure) which is the source of the posture data FD. The identification information D3 may be other information, for example, character information such as "this posture".
また、更新部15は、表示部4にGUI(グラフィカル ユーザ インターフェース)のボタンD4およびポインタD5を表示させる。ポインタD5は、入力部5(図1参照)が操作されることによって、表示部4が表示する画像上で移動する。更新部15は、入力部5への入力を監視し、ボタンD4の「Yes」上にポインタD5が配置された状態でクリックなどの入力があった場合に、教師データTDを更新する更新指令が入力されたと判定する。また、更新部15は、入力部5への入力を監視し、ボタンD4の「No」上にポインタD5が配置された状態でクリックなどの入力があった場合に、教師データTDを更新しない更新指令が入力されたと判定する。
Further, the
更新部15は、教師データTDを更新する更新指令が入力されたと判定した場合、記憶部16に記憶された教師データTDを更新して設定する。例えば、更新部15は、記憶部16に記憶された教師データTDを姿勢データFDで書き換える(上書きする)ことによって、教師データTDを更新する。
When the
図3は、本実施形態に係る比較部の処理の変形例を示す図である。図3(A)および図3(B)は、それぞれ、比較部14が生成する比較画像の例である。図3(A)において、比較画像Im1は、教師データTDが示す人体の形状FG1と、姿勢データFDが示す人体の形状FG2とを重ねた画像(例、オーバーレイ画像)を含む。比較部14は、形状FG1と形状FG2とを区別可能なように、形状FG1と形状FG2とを異なる色で表してもよい。比較部14は、形状FG1と形状FG2とを区別可能なように、形状FG1と形状FG2とを異なる明るさで表してもよい。また、比較部14は、教師データTDと姿勢データFDとの類似度D6を比較画像Im1上に表してもよい。比較部14は、類似度D6を数値などの文字情報で比較画像Im1上に表してもよい。また、比較部14は、類似度の高低を色彩(例、赤、青)と明るさ(例、明、暗)との一方または双方で表してもよい。処理装置3は、色彩と明るさとの一方または双方を形状FG1と形状FG2とで変えた画像を表示部4に表示させることで、教師データTDと姿勢データFDとの違いを、ユーザUに視覚的に認識可能に報知してもよい。
FIG. 3 is a diagram showing a modified example of the processing of the comparison unit according to the present embodiment. 3A and 3B are examples of comparative images generated by the
また、比較部14は、姿勢データFDが表す形状FG2の全体または一部について、類似度を色彩で表してもよい。例えば、比較部14は、類似度が相対的に高い部位を青で表し、類似度が相対的に低い部位を赤で表してもよい。また、比較部14は、姿勢データFDが表す形状FG2の全体または一部について、類似度を明るさで表してもよい。例えば、比較部14は、類似度が相対的に高い部位を暗い階調で表し、類似度が相対的に低い部位を明るい階調で表してもよい。また、比較部14は、類似度が相対的に高い部位と低い部位とで表示の有無を変えてもよい。例えば、比較部14は、類似度が相対的に高い部位を非表示とし、類似度が相対的に低い部位を選択的に表示としてもよい。
Further, the
図3(B)において、比較画像Im1は、姿勢データFDが示す形状FG2と、形状FG2において教師データTDが示す形状との差異を示す図形FG3とを含む。比較部14は、例えば、姿勢データFDが示す形状FG2から、教師データTDが示す形状FG1(図3(A)参照)と異なる部分を抽出する。例えば、比較部14は、形状FG1と形状FG2との差分を演算(例、画像演算)し、形状FG1と形状FG2とで異なる部分を抽出する。比較部14は、比較画像Im1として、抽出した部分(差異)を表す図形FG3を、姿勢データFDが示す形状FG2と重ねた画像を生成する。処理装置3は、このような画像(例、重ねた画像)を表示部4に表示させることで、教師データTDと姿勢データFDとの違いを、ユーザUに視覚的に認識可能に報知してもよい。
In FIG. 3B, the comparative image Im1 includes a figure FG2 showing a difference between the shape FG2 shown by the posture data FD and the shape shown by the teacher data TD in the shape FG2. The
次に、上述の検出装置1の動作に基づき、実施形態に係る検出方法について説明する。図4は、実施形態に係る検出方法を示すフローチャートである。検出装置1の各部については、適宜、図1を参照する。ステップS1において、検出部2は、ユーザUの人体HMを検出する。例えば、センサ11は、ユーザUの人体HMを撮像する。例えば、センサ11は、検出設定期間において人体HMを繰り返し検出(例、撮像)した後、検出を終了する。
Next, the detection method according to the embodiment will be described based on the operation of the
処理部13は、センサ11の検出結果に基づいて、人体HMの少なくとも一部についての姿勢データFDを生成する。処理部13は、検出設定期間と重複する期間に姿勢データを生成してもよい。また、処理部13は、検出設定期間の終了後に、姿勢データを生成してもよい。
The
ステップS2において、比較部14は、人体の姿勢データFDと教師データTDとを比較する。比較部14は、姿勢データFDと教師データTDとを比較し、姿勢データFDが表す形状と教師データTDが表す形状との類似度(例、相関係数)を算出してもよい。また、比較部14は、姿勢データFDと教師データTDとを比較し、教師データTDが表す形状と姿勢データFDが表す形状との差分を算出してもよい。比較部14は、姿勢データFDと教師データTDとの比較を示す比較情報(例、図2、図3の比較画像Im1)を生成する。処理装置3は、比較部14が生成した比較画像Im1を表示部4に表示させる。
In step S2, the
ステップS3において、更新部15は、教師データTDを更新するか否かを判定する。更新部15は、入力部5に更新指令が入力されたと判定した場合に、教師データTDを更新すると判定する(ステップS3;Yes)。更新部15は、教師データTDを更新すると判定した場合(ステップS3;Yes)、ステップS4において、姿勢データFDを用いて教師データTDを更新する。検出装置1は、教師データTDを更新しない更新部15が判定した場合(ステップS3;No)、一連の処理を終了する。
In step S3, the
なお、処理部13は、検出装置1において処理装置3の外部(例、検出部2)に設けられてもよいし、検出装置1と別の外部装置に設けられてもよい。例えば、検出装置1は、検出部2の検出結果を外部装置に供給し、外部装置(例、処理部13)が生成した姿勢データを取得してもよい。検出装置1の少なくとも一部は、デスクトップ型のパーソナルコンピュータなどの据え置き型の装置でもよい。検出装置1の少なくとも一部は、スマートフォンなどの携帯型の情報端末でもよい。
The
なお、実施形態に係る検出装置1は、ユーザUの人体HMを検出する検出部2と、検出部2の検出結果から得られるユーザUの姿勢データFDと、過去に取得されたユーザUの教師データTDとを比較する比較部14と、比較部14の比較結果に基づいて、ユーザの姿勢データFDを用いてユーザの教師データTDを生成する処理部13と、を備え、更新部15を備えなくてもよい。この検出装置1は、姿勢データFD、教師データTD、及び姿勢データFDと教師データTDとの比較データ(例、比較画像のデータ)の少なくとも一部を外部に出力してもよい。また、例えば、本実施形態に係る検出装置1は、ユーザUの姿勢を過去のユーザUの姿勢に対して比較可能にする。
The
なお、比較部14は、ユーザUの人体HMの一部について、姿勢データFDと教師データTDとの比較を行わなくてもよい。例えば、比較部14は、記憶部16に記憶された設定(比較対象部位の設定情報)に基づいて、予め設定された比較対象の部位についてのみ、姿勢データ(例、姿勢データの部位データ)FDと教師データ(例、教師データの部位データ)TDとを比較してもよい。上記の設定は、ユーザUの指定などによって変更可能でもよい。例えば、上記の設定は、目標の姿勢がほぼ達成される部位を比較対象から外すように、変更可能でもよい。また、上記の設定は、比較対象の部位を追加するように、変更可能でもよい。
The
[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図5は、本実施形態に係る検出装置を示す図である。本実施形態において、検出部2は、人体HMの各部からの距離を光学的に検出する。処理装置3は、例えば、人体HMの各部から検出部2までの距離に基づいて人体HMの各部位を特定し、人体HMの部位ごとの評価基準を予め定めた基準データを用いて、類似度を算出する。検出部2は、例えば、モーションキャプチャ装置でもよく、人体HMの三次元形状を検出してもよい。検出部2は、例えば、センサ11、処理部13、及び記憶部12を備える。
[Second Embodiment]
The second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 5 is a diagram showing a detection device according to the present embodiment. In the present embodiment, the
センサ11は、例えば、デプスセンサなどの測距器である。センサ11は、例えば、所定の視点(例、センサ11の位置、視点)から人体HMの表面上の各点までの距離を検出する。センサ11は、例えば、TOF(time of flight)法によって距離を検出する。センサ11は、その検出結果(例、位置情報)として、例えば距離の分布を示す位置情報を出力する。上記の位置情報は、例えば、デプス情報(例、デプス画像のデータ、奥行き情報)を含む。センサ11は、例えば、人体HMの複数の部位の三次元的な位置情報を出力する。
The
なお、センサ11は、TOF法以外他の手法で距離を検出するデバイスでもよい。センサ11は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによって距離を検出するデバイスでもよい。センサ11は、例えば、人体HMが通る領域に所定のパターンを投影し、このパターンの検出結果をもとに距離を測定するデバイスでもよい。センサ11は、例えば、位相差センサを含み、位相差法によって距離を検出するデバイスでもよい。センサ11は、例えば、DFD(depth from defocus)法によって距離を検出するデバイスでもよい。また、センサ11は、例えばステレオカメラなどによって複数の視点から人体HMを撮像した撮像画像を用いて、三角測量によって距離を検出するデバイスでもよい。センサ11は、上述した複数の検出法のうち2以上を組み合わせて、人体HMを検出するデバイスでもよい。センサ11は、距離を検出するセンサ、及び第1実施形態で説明したイメージセンサを含んでもよい。
The
図6は、実施形態に係る処理部の処理を示す図である。センサ11(図5参照)は、例えば、デプス画像Im5のデータを出力する。デプス画像Im5において、各画素の画素値は、例えば、デプス画像Im5上の画素の位置に相当する実空間上の点とセンサ11との距離を表す。例えば、図6のデプス画像Im5はグレースケールで表されており、暗い部分は、明るい部分よりもセンサ11からの距離が離れている。
FIG. 6 is a diagram showing the processing of the processing unit according to the embodiment. The sensor 11 (see FIG. 5) outputs, for example, the data of the depth image Im5. In the depth image Im5, the pixel value of each pixel represents, for example, the distance between the
処理部13(図5参照)は、センサ11の検出結果に基づいて、人体HMの位置を検出(算出)する。処理部13は、例えば、デプス画像Im5のデータを処理(例、透視変換処理、射影変換処理)することによって、人体HMの形状を表す形状情報を生成(算出)する。形状情報は、例えば、点群データを含む。点群データは、例えば人体HMの表面の複数の点データを含む。例えば、複数の点データは、それぞれ3次元座標で表される。
The processing unit 13 (see FIG. 5) detects (calculates) the position of the human body HM based on the detection result of the
処理部13は、形状情報としてサーフェス情報を算出してもよい。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。サーフェス情報は、例えば、複数の点の座標と複数の点間の連結情報とを含む。連結情報は、例えば、物体(例、人体HM)の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。連結情報は、例えば、物体上の面の輪郭に相当する複数の線を互いに関連付ける情報を含む。
The
処理部13は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換してもよい。処理部13は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。
For example, the
処理部13は、センサ11の検出結果に基づいて、人体HMの特徴部位(例、特徴点)の位置情報PDを生成する。人体HMの特徴部位は、例えば、人体HMの他の部位と区別可能な部位である。人体HMの特徴部位は、例えば、人体HMの末端部、関節、又は末端部と関節との間もしくは2つの関節の間の中間部の少なくとも1つを含む。
The
処理部13は、例えば、点群データを用いた認識処理(例、パターン認識、形状認識、骨格認識)等によって、上記の特徴部位の位置情報PDを生成する。特徴部位の位置情報PDは、例えば、特徴部位を代表する点の座標(例、3次元座標)を含む。処理部13は、例えば、上記の認識処理によって、特徴部位を表す点の座標を算出する。処理部13は、例えば、特徴部位のそれぞれについて、特徴部位の名称と、特徴部位の位置とを関連付けたデータを生成する。処理部13は、例えば、予め設定された1または2以上の特徴部位のそれぞれの位置情報を含む位置情報PD(例、テーブルデータ)を生成する。位置情報PDは、例えば、同じ検出タイミングの検出結果から得られる複数の特徴部位の位置情報を含む。
The
図5の説明に戻り、検出部2は、処理部13が生成した位置情報を外部に出力する。例えば、処理部13は、生成した位置情報を記憶部12に記憶させる。検出部2は、例えば、記憶部12に記憶された位置情報を処理装置3に出力する。処理装置3は、検出部2から出力された位置情報を記憶部16に記憶させる。本実施形態において、記憶部16は、基準データRD、教師データTD、及び姿勢データFDを記憶する。記憶部16は、図1に示した初期データSDを記憶してもよい、初期データSDを記憶しなくてもよい。
Returning to the description of FIG. 5, the
基準データRDは、目標の姿勢(例、ヨガの三日月のポーズ)を定義した情報(定義データ、参照データ)である。基準データRDは、人体HMの部位ごとの評価基準を予め定めた情報である。処理装置3は、例えば、ユーザUの指令によって、目標の姿勢を登録可能である。例えば、ユーザUは、入力部5を操作することによって、目標の姿勢に関する情報を処理装置3に取得させる。処理装置3は、例えば、インターネット回線などを介して目標の姿勢に関するデータ(基準データRD、図1の初期データSD)を取得する(例、ダウンロード)する。
The reference data RD is information (definition data, reference data) that defines a target posture (eg, yoga crescent pose). The reference data RD is information in which evaluation criteria for each part of the human body HM are predetermined. The
なお、処理装置3は、目標の姿勢に関する情報を、光学ディスク(例、DVD-ROM)あるいはUSBメモリなどの記憶媒体から取得してもよい。また、処理装置3は、自動更新などの設定に基づいて、ユーザUの指令を受けなくても目標の姿勢に関する情報を自動で取得してもよい。また、処理装置3は、予め記憶部16に記憶された目標の姿勢に関して処理を実行し、新たな目標の姿勢に関する情報を取得しなくてもよい。
The
比較部14は、基準データRDを用いてユーザUの姿勢データFDが表す姿勢を評価する。比較部14は、基準データRDを用いて、教師データTDと姿勢データFDとの類似度を算出する。図7は、本実施形態に係る比較部の処理を示す図である。図7(A)には、基準データRDを概念的に示した。基準データRDは、人体HMの部位名と、評価項目と、重み係数(重み付けの係数)とを関連付けた情報である。例えば、部位名が頭について、評価項目は頭と首との相対位置であり、重み係数はC1である。また、部位名が肘について、評価項目は肩-肘(上腕)と、肘-手首(前腕)との相対位置であり、重み係数はCiである。比較部14は、予め設定された部位ごとに姿勢を評価する。
The
図7(B)には、部位ごとに姿勢を評価する評価処理を概念的に示した。比較部14は、肘の姿勢を評価する際に、姿勢データFDaを用いて、肩Qa1から肘Qb1までの上腕Qc1と肘Qb1から手首Qd1までの前腕Qe1との相対位置(例、角度θ1)を算出する。また、比較部14は、教師データTDを用いて、肩Qa2から肘Qb2までの上腕Qc2と肘Qb2から手首Qd2までの前腕Qe2との相対位置(例、角度θ2)を算出する。比較部14は、角度θ1と角度θ2とを比較して、肘の評価値を算出する。例えば、比較部14は、角度θ1と角度θ2との差に重み係数Ciを乗算した値を評価値として算出する。
FIG. 7B conceptually shows an evaluation process for evaluating the posture for each part. When evaluating the posture of the elbow, the
比較部14は、教師データTDに対して姿勢データFDがずれる向きを区別して、姿勢を評価する。例えば、肘が伸びていることが望まれる姿勢である場合、比較部14は、角度θ1が角度θ2よりも180°に近い場合に、評価値を相対的に高くする。例えば、比較部14は、角度θ1から角度θ2を引いた値に重み係数をCiを乗算して、評価値を算出する。図7(B)において、角度θ1は、角度θ2よりも180°に近く、(θ1-θ2)が正となり、評価値は正の値になる。また、姿勢データFDbのように、教師データTDよりも肘Qb3が曲がっている場合、肩Qa3から肘Qb3までの上腕Qc3と肘Qb3から手首Qd3までの前腕Qe3との角度θ3は、角度θ2よりも小さくなる。この場合、(θ3-θ2)が負となり、評価値は負の値になる。
The
基準データRDには、各部位について、教師データTDから算出される値と姿勢データFDから算出される値との演算式が予め定められている。比較部14は、基準データRDに定められた演算式に基づいて演算することによって、教師データTDに対して姿勢データFDがずれる向きを区別して評価値を算出する。比較部14は、予め設定された各部位について評価値を算出し、予め設定された部位で評価値を積算することによって、類似度を算出する。
In the reference data RD, an arithmetic expression of a value calculated from the teacher data TD and a value calculated from the posture data FD is predetermined for each part. The
姿勢データFDにおける第1の部位(例、肩Qa1)の位置は、教師データTDにおける第1の部位(例、肩Qa2)の位置とずれている場合がある。この場合、第1の部位の位置ずれによって、第1の部位よりも人体HMの末端側の第2の部位(例、肘、手首)の位置が教師データTDと姿勢データFDとでずれる。上述のように人体の部位の相対位置を用いて教師データTDと姿勢データFDとが比較される場合、上記の位置ずれによる影響を低減することができる。 The position of the first part (eg, shoulder Qa1) in the posture data FD may be deviated from the position of the first part (eg, shoulder Qa2) in the teacher data TD. In this case, the position of the second part (eg, elbow, wrist) on the terminal side of the human body HM with respect to the first part is shifted between the teacher data TD and the posture data FD due to the misalignment of the first part. When the teacher data TD and the posture data FD are compared using the relative positions of the parts of the human body as described above, the influence of the above-mentioned position shift can be reduced.
なお、評価項目および重み係数は、目標となる姿勢に基づいて、人体の一部の部位ついて設定されなくてもよい。例えば、ヨガのポーズにおいて、伸びていても曲がっていても構わない部位については、評価項目および重み係数が設定されなくてもよい。また、基準データRDは、重み係数を含まなくてもよい。例えば、比較部14は、評価項目ごとに算出される値の積算、あるいは平均などによって類似度を算出してもよい。
The evaluation item and the weighting coefficient may not be set for a part of the human body based on the target posture. For example, in yoga poses, evaluation items and weighting factors may not be set for parts that may be stretched or bent. Further, the reference data RD may not include the weighting coefficient. For example, the
なお、比較部14は、基準データRDを用いないで、姿勢データFDと教師データTDとを比較してもよい。比較部14は、姿勢データFDと教師データTDとの類似度を算出しなくてもよい。比較部14は、第1実施形態で説明したように、姿勢データFDと教師データTDとの比較を示す比較画像を生成してもよい。また、処理部13は、検出装置1において検出部2の外部(例、処理装置3)に設けられてもよいし、検出装置1と別の外部装置に設けられてもよい。
The
[第3実施形態]
第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図8は、実施形態に係る検出装置を示す図である。本実施形態において、検出部2は、人体HMを繰り返し検出する。比較部14は、検出部2が人体HM(図1参照)を繰り返し検出した検出結果から得られる複数の姿勢データ(FD1からFDj)のそれぞれと、教師データTDとを比較する。更新部15は、教師データTDを、比較部14の比較結果に基づいて複数の姿勢データ(FD1からFDj)から選択される姿勢データへ更新する。例えば、比較部14は、所定の期間(例、一連のヨガを行う期間、1日、1時間)におけるユーザU(図1参照)のベストの姿勢データと教師データとの比較画像を生成する。ユーザUは、例えば、ベストの姿勢データと教師データとの比較に基づいて、この姿勢データで教師データを更新するか否かを指定することができる。
[Third Embodiment]
The third embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 8 is a diagram showing a detection device according to an embodiment. In the present embodiment, the
検出部2は、各検出で得られる検出結果に識別情報(例、ID)を付して、処理部13に供給する。この識別情報は、例えば、検出結果が得られた順に割り付けられる番号(例、フレーム番号)である。例えば、図8において、検出部2が出力した検出結果は、IDがj(jは1以上の整数)である。
The
処理部13は、検出部2(例、センサ11)における検出結果を処理して姿勢データを生成する。処理部13は、生成した姿勢データに識別情報(例、ID)を付して出力する。この識別情報は、例えば、姿勢データが得られた順に割り付けられる識別番号である。例えば、図8において、処理部13が出力した姿勢データは、識別情報がj(jは1以上の整数)である。
The
記憶部16は、処理部13が出力した出力した姿勢データを、その識別情報と関連付けて記憶する。例えば、図8において、姿勢データFDは、識別情報が1からjまでの複数の姿勢データを含む。以下の説明において、複数の姿勢データを区別する場合に、識別情報に対応する添え字(1からj)を付して表す。例えば、姿勢データFDjは、識別情報がjの姿勢データである。
The
比較部14は、記憶部12から、複数の姿勢データFD1~FDjをそれぞれ読み出し、基準データRDを用いて教師データTDと比較する。比較部14は、基準データRDを用いて、複数の姿勢データFD1~FDjのそれぞれについて類似度を算出する。例えば、比較部14は、記憶部12から、姿勢データFDj、教師データTD、及び基準データRDを読み出し、これらデータを用いて姿勢データFDjと教師データTDとの類似度を算出する。比較部14は、算出した類似度を、姿勢データFDjの識別情報と関連付けて記憶部16に記憶させる。例えば、記憶部16は、識別情報と関連付けられた類似度を含む類似度データCDを記憶する。類似度データCDは、例えば、識別情報と類似度とを一組にしたデータを集積したテーブルデータである。
The
本実施形態において、検出装置1は、選択部21を備える。選択部21は、複数の姿勢データFD1~FDjから、教師データTDとの類似度が相対的に高い姿勢データを選択する。例えば、処理部13は、予定された複数の姿勢データについて類似度を算出する類似度算出処理が終了した後に、類似度算出処理の終了を示す情報(例、信号、フラグ)を選択部21に供給する。選択部21は、類似度算出処理の終了を示す情報を比較部14から受けた場合に、記憶部12から類似度データCDを読み出す。選択部21は、類似度データCDにおいて類似度が相対的に高い姿勢データの識別情報を選択(特定)する。
In the present embodiment, the
ここでは、類似度データCDにおいて姿勢データFDjの類似度が最も高いとする。選択部21は、選択した識別情報(ID=j)を比較部14に供給する。比較部14は、選択部21から供給された識別情報(ID=j)に対応する姿勢データFDjを記憶部16から読み出す。比較部14は、姿勢データFDjと教師データTDとの比較を示す比較画像Im1(図2、図3参照)を生成する。表示部4は、選択部21によって選択された姿勢データFDに基づいて画像を表示する。例えば、表示部4は、選択部21によって選択された姿勢データFDに基づいて比較部14が生成した比較画像Im1(図2、図3参照)を表示する。
Here, it is assumed that the attitude data FDj has the highest degree of similarity in the similarity data CD. The
なお、選択部21は、複数の姿勢データFD1~FDjから、教師データTDとの類似度が相対的に高い姿勢データを2つ以上選択してもよい。例えば、選択部21は、予め定められた数の姿勢データの識別情報を、姿勢データの類似度が高い順に類似度データCDから選択してもよい。また、選択部21は、類似度と閾値とを比較して、所定の条件(例、類似度が閾値以上である条件)を満たす姿勢データの識別情報を抽出してもよい。
The
なお、比較部14は、2以上の姿勢データ(例、姿勢データFD1、FD2)の比較を示す比較画像を生成してもよい。例えば、比較部14は、2以上の姿勢データがそれぞれ表す形状を並べた比較画像を生成してもよい。また、比較部14は、2以上の姿勢データ(例、姿勢データFD1、FD2)、及び教師データTDとの比較を示す比較画像を生成してもよい。例えば、比較部14は、2以上の姿勢データがそれぞれ表す形状と、教師データTDが示す形状とを並べた比較画像を生成してもよい。
The
また、比較部14は、選択部21が選択した2以上の姿勢データのそれぞれについて、教師データTDとの比較を示す比較画像を生成してもよい。処理装置3は、比較部14が生成した複数の比較画像を、表示部4に並べて表示させてもよい。また、処理装置3は、比較部14が生成した複数の比較画像を順に表示部4に表示させてもよい。
Further, the
[第4実施形態]
第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図9は、本実施形態に係る検出装置を示す図である。図10は、本実施形態に係る比較部の処理を示す図である。本実施形態において、検出装置1は、姿勢データFDを複数の教師データ(TD1からTDk)と比較する。例えば、検出装置1は、ユーザUの姿勢を、猫の姿勢に対する教師データと比較し、また牛の姿勢に対する教師データと比較する。
[Fourth Embodiment]
The fourth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 9 is a diagram showing a detection device according to the present embodiment. FIG. 10 is a diagram showing the processing of the comparison unit according to the present embodiment. In the present embodiment, the
本実施形態において、教師データTDは、複数の教師データを含む。複数の教師データは、それぞれ、識別情報と関連付けられて、記憶部16に記憶される。以下の説明において、複数の教師データを区別する場合に、識別情報に対応する添え字(1からk)を付して表す。例えば、教師データTDkは、識別情報がkのユーザUの姿勢データである。
In the present embodiment, the teacher data TD includes a plurality of teacher data. Each of the plurality of teacher data is associated with the identification information and stored in the
複数の教師データTD1~TDkは、第1の姿勢F1(図10(A)参照)に対する教師データTD1と、第2の姿勢F2(図10(B)参照)に対する教師データTD2とを含む。第1の姿勢F1(例、第1の目標姿勢、猫のポーズ)は、第2の姿勢F2(例、第2の目標姿勢、牛のポーズ)と異なる。ユーザが第1の姿勢F1をとる順番と、ユーザが第2の姿勢F2をとる順番とは、例えば、ユーザの指定によって予め定められている。例えば、第1の姿勢と第2の姿勢とは、連続的にとることが予め定められている。記憶部16には、ユーザが各姿勢をとる順番および時間を定めたタイミングデータ(スケジュール情報)が予め記憶されている。
The plurality of teacher data TD1 to TDk include teacher data TD1 for the first posture F1 (see FIG. 10A) and teacher data TD2 for the second posture F2 (see FIG. 10B). The first posture F1 (eg, first target posture, cat pose) is different from the second posture F2 (eg, second target posture, cow pose). The order in which the user takes the first posture F1 and the order in which the user takes the second posture F2 are predetermined, for example, by the user's designation. For example, it is predetermined that the first posture and the second posture are taken continuously. The
検出部2は、ユーザが第1の姿勢F1をとる期間と、ユーザが第2の姿勢F2をとる期間とにわたって、ユーザの人体を繰り返し検出する。例えば、検出部2は、記憶部16に記憶されているタイミングデータに基づいて決定される期間に、ユーザの人体を繰り返し検出する。検出部2は、各検出で得られる検出結果に識別情報(例、ID)を付して、処理部13に供給する。処理部13は、検出部2からの検出結果を処理して姿勢データを生成する。処理部13は、生成した姿勢データに識別情報(例、ID)を付して出力する。
The
記憶部16は、処理部13が出力した出力した姿勢データを、その識別情報と関連付けて記憶する。姿勢データFD1は、例えば、図10(A)の第1の姿勢F1(例、猫のポーズ)に対応する。姿勢データFDjは、例えば、図10(A)の第2の姿勢F2(例、牛のポーズ)に対応する。姿勢データFD2は、例えば、第1の姿勢F1から第2の姿勢F2へ移る過程の姿勢に対応する姿勢データである。
The
比較部14は、記憶部12から複数の姿勢データFD1~FDjをそれぞれ読み出す。比較部14は、ユーザの姿勢データごとに異なる教師データを用いて比較する。比較部14は、複数の姿勢データFD1~FDjをそれぞれについて、第1の姿勢F1に対する教師データTD1および第2の姿勢F2に対する教師データTD2のそれぞれと比較する。例えば、図10(B)に示すように、比較部14は、姿勢データFD1と教師データTD1とを比較する。また、比較部14は、姿勢データFD1と教師データTD2とを比較する。例えば、図10(C)に示すように、比較部14は、姿勢データFDjと教師データTD1とを比較する。また、比較部14は、姿勢データFDjと教師データTD2とを比較する。
The
比較部14は、例えば、複数の姿勢データFD1~FDjのそれぞれと、教師データTD1との類似度を算出する。比較部14は、複数の姿勢データFD1~FDjのうち教師データTD1との類似度が相対的に高い姿勢データを用いて、比較画像を生成する。例えば、姿勢データFD1は、姿勢データFDjよりも教師データTD1との類似度が高い。この場合、比較部14は、姿勢データFD1と教師データTD1との比較を示す比較画像を生成する。
The
また、比較部14は、例えば、複数の姿勢データFD1~FDjのそれぞれと、教師データTD2との類似度を算出する。比較部14は、複数の姿勢データFD1~FDjのうち教師データTD2との類似度が相対的に高い姿勢データを用いて、比較画像を生成する。例えば、姿勢データFDjは、姿勢データFD1よりも教師データTD2との類似度が高い。この場合、比較部14は、姿勢データFDjと教師データTD2との比較を示す比較画像を生成する。
Further, the
[第5実施形態]
第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図11は、本実施形態に係る検出装置を示す図である。本実施形態において、検出装置1は、人体HMの呼吸のタイミングに基づいて、ユーザUに姿勢変化のタイミングを報知する。検出装置1は、タイミング検出部22、スケジュール設定部23、及び報知部24を備える。
[Fifth Embodiment]
A fifth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 11 is a diagram showing a detection device according to the present embodiment. In the present embodiment, the
タイミング検出部22は、検出部2の検出結果に基づいて、人体HMの呼吸のタイミングを検出する。検出部2は、例えば、ヨガを行う前にあるいはヨガの最初の姿勢において、呼吸を行うユーザUを繰り返し検出する。処理部13は、検出部2の検出結果に基づいて、呼吸を行うユーザUの姿勢データを生成する。処理部13は、生成した姿勢データを記憶部16に記憶させる。記憶部16には、図8および図9に示したように、検出部2が人体HMを繰り返し検出して得られる姿勢データFD(例、図8の複数の姿勢データFD1~FDj)が記憶される。
The
タイミング検出部22は、記憶部16から、呼吸を行うユーザUの姿勢データFDを読み出す。タイミング検出部22は、例えば、姿勢データFDの時間変化を算出する。例えば、タイミング検出部22は、ユーザUの呼吸に伴う人体HMの部位(例、胸部)の移動を検出する。タイミング検出部22は、例えば、ユーザUの呼吸に伴う人体HMの部位(例、胸部、腹部)の移動周期に基づいて、ユーザUの呼吸の周期を推定する。タイミング検出部22は、推定した呼吸の周期を記憶部16に記憶させる。
The
スケジュール設定部23は、タイミング検出部22が推定した呼吸の周期に基づいて、人体HMの姿勢変化のタイミングデータLDを生成する。例えば、スケジュール設定部23は、例えば、図10に示した第1の姿勢F1をとる時間を、呼吸の周期に基づいて決定する。上記の第1の姿勢F1を取る時間は、例えば、1つのポーズを維持する時間、第1の姿勢F1をとることが推奨される時間などである。スケジュール設定部23は、例えば、第1の姿勢F1をとる時間を、呼吸の周期の整数倍に決定する。
The
スケジュール設定部23は、例えば、決定した各姿勢の時間、及び予定された姿勢の順番に基づいて、タイミングデータLDを生成する。タイミングデータLDは、例えば、予定されたヨガの複数の姿勢のそれぞれについて、各姿勢をとるタイミングを表す情報である。例えば、タイミングデータLDは、第1の姿勢F1をとる期間の開始タイミングおよび終了タイミングを、ヨガの開始からの時間で表す情報を含む。スケジュール設定部23は、生成したタイミングデータLDを記憶部16に記憶させる。
The
なお、タイミング検出部22は、呼吸の周期を少なくとも1回、記憶部16に記憶させる。以降の処理において、スケジュール設定部23は、タイミング検出部22が呼吸の周期を検出しない場合、記憶部16に記憶された呼吸の周期を読み出して、タイミングデータLDを生成する。
The
報知部24は、タイミング検出部22の検出結果に基づいて、人体HMの姿勢変化のタイミングを報知する。例えば、報知部24は、タイミング検出部22の検出結果に基づいてスケジュール設定部23が生成したタイミングデータLDに基づいて、人体HMの姿勢変化のタイミングを報知する。例えば、処理装置3は、タイミングデータLDに基づいて、報知信号を報知部24に供給する。報知部24は、例えば、人体の姿勢変化のタイミングを音声で報知する。報知部24は、例えば、音声再生デバイス、アンプ、スピーカなどを含む。上記の報知信号は、例えば「次の姿勢をとってください」などの音声ガイド、音楽、チャイムなどの音を表す音声データである。報知部24は、処理装置3から供給された報知信号が表す音を再生することで、報知を行う。
The
なお、検出装置1は、タイミング検出部22を備えなくてもよい。例えば、ユーザUは、自身の呼吸のタイミングを入力部5によって処理装置3に入力してもよい。スケジュール設定部23は、ユーザUから入力された呼吸タイミングに基づいて、タイミングデータLDを生成してもよい。また、検出装置1は、スケジュール設定部23を備えなくてもよい。例えば、ユーザUは、入力部5を操作して複数の姿勢を行うタイミングを設定してもよい。
The
なお、報知部24は、例えば、ユーザUが設定、編集したタイミングデータLDに基づいて、姿勢変化のタイミングを報知してもよい。また、報知部24は、音声以外によって、報知を行ってもよい。例えば、報知部24は、光(ライトの点灯)、振動などで報知を行ってもよい。また、表示部4は、報知部24を兼ねてもよく、画像を表示することで報知を行ってもよい。また、検出装置1は、報知部24を備えなくてもよい。また、検出システムSYSは、検出装置1の外部に報知部24を備えてもよい。
The
[第6実施形態]
第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図12は、本実施形態に係る検出装置を示す図である。検出装置1は、例えばユーザUの更新指令を受けなくとも、判定部25の判定によって教師データを自動で更新可能である。
[Sixth Embodiment]
The sixth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 12 is a diagram showing a detection device according to the present embodiment. The
本実施形態において、検出装置1は、判定部25を備える。判定部25は、比較部14の比較結果に基づいて、教師データTDを更新するか否かを判定する(判定処理を実行する)。比較部14は、例えば、姿勢データFDと教師データTDとの類似度に基づいて、判定処理を実行する。例えば、判定部25は、姿勢データFDと教師データTDとの類似度と閾値とを比較する。判定部25は、類似度が閾値以上である場合に、教師データTDを更新すると判定する。判定部25は、教師データTDを更新すると判定した場合に、更新指令(例、設定信号)を更新部15に供給する。更新部15は、判定部25から更新指令(設定指令)を受けた場合に、姿勢データFDを用いて教師データTDを更新(例、自動更新)する。
In the present embodiment, the
[第7実施形態]
第7実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図13は、本実施形態に係る検出装置を示す図である。検出装置1は、例えば教師データTDおよび姿勢データFDを外部装置(例、処理装置30)に出力し、外部装置(例、処理装置30)から供給される更新指令に基づいて教師データTDを更新する。
[7th Embodiment]
The seventh embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 13 is a diagram showing a detection device according to the present embodiment. The
本実施形態において、検出装置1は、通信部26を備える。通信部26は、記憶部16に記憶された情報(例、教師データTD、姿勢データFD、比較画像のデータ)の少なくとも一部を検出装置1の外部(例、処理装置30)へ送信する。通信部26は、例えばインターネット回線を介して、処理装置30に接続される。
In the present embodiment, the
処理装置30は、例えばクラウドコンピュータである。処理装置30は、姿勢の良否判定を行ってもよい。処理装置30は、検出装置1(例、通信部26)から受信した姿勢データFDに基づいて、教師データTDを更新するか否かを判定してもよい。処理装置30は、教師データTDを更新するか否かの判定結果に基づいて、検出装置1(例、通信部26)に更新指令を送信してもよい。更新部15は、処理装置30からの更新指令に基づいて、教師データTDを更新してもよい。
The
また、処理装置30は、インストラクターなどのオペレータが操作可能なコンピュータでもよい。処理装置30は、例えば検出装置1から比較画像のデータを受信し、表示部に比較画像を表示してもよい。インストラクターは、表示部に表示された比較画像に基づいて、教師データTDを更新するか否か、あるいは教師データTDを更新することを推奨するか否かを判定してもよい。処理装置30は、インストラクターの指令によって更新指令を検出装置1に送信してもよい。更新部15は、処理装置30からの更新指令に基づいて、教師データTDを更新してもよい。
Further, the
上述のように、更新部15は、更新指令を検出装置1の外部の装置から供給されて、教師データTDを更新してもよい。この場合、検出装置1は、図12に示した判定部25を備えなくてもよい。また、検出装置1は、通信部26を介してソーシャルネットワーク(SNS)等に接続可能でもよい。検出装置1は、ユーザUの指令に基づいて、記憶部16に記憶された情報の少なくとも一部をソーシャルネットワーク上に投稿、公開してもよい。また、検出装置1は、通信部26を介して、図1の初期データSDと図5の基準データとの一方または双方を受信してもよい。検出装置1は、例えば、記憶部16に記憶されていない目標の姿勢に関する情報(例、新たな姿勢に関する初期データSD、基準データRD)を、通信部26を介して取得してもよい。
As described above, the
[第8実施形態]
第8実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図14は、本実施形態に係る検出装置を示す図である。本実施形態において、検出装置1は、教師データとして用いる姿勢データを指定する。検出装置1は、教師データを姿勢データで上書きする代わりに、教師データとして用いる姿勢データの指定を変更することによって、教師データを更新する。
[Eighth Embodiment]
The eighth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 14 is a diagram showing a detection device according to the present embodiment. In the present embodiment, the
本実施形態において、記憶部16は、ユーザUの姿勢データFD、およびユーザUの教師データとして用いる姿勢データFDを指定する設定データVDを記憶する。姿勢データFDは、複数の姿勢データFD1~FDnを含む。複数の姿勢データFD1~FDnは、それぞれ、識別情報(例、ID)が付されている。ここでは、識別情報がnの姿勢データFDnが最新の姿勢データであるものとする。本実施形態において、検出装置1は、姿勢データFDnよりも前に取得された複数の姿勢データFD1~FDn-1から選択される姿勢データを教師データに用いる。
In the present embodiment, the
設定データVDは、複数の姿勢データFD1~FDnのうち、教師データとして用いる姿勢データを指定する設定値を含む。例えば、図14において、教師データに用いる姿勢データの識別情報(ID)は「m」であると定められている。比較部14は、記憶部16に記憶された設定データを読み出し、教師データを指定する識別情報(ID=m)を取得する。比較部14は、教師データとして用いる姿勢データFDmと、比較対象の姿勢データFDnとを記憶部16から読み出す。比較部14は、姿勢データFDnと姿勢データFDm(教師データ)を比較する。
The setting data VD includes a setting value for designating the posture data to be used as the teacher data among the plurality of posture data FD1 to FDn. For example, in FIG. 14, the identification information (ID) of the posture data used for the teacher data is defined as "m". The
また、比較部14は、比較対象の姿勢データFDの識別情報(ID=n)を更新部15に供給する。更新部15は、入力部5から更新指令を受けた場合に、比較部14から供給された識別情報を用いて、設定データを更新する。更新部15は、例えば、教師データを指定する機器別情報をmからnへ書き換えることで、教師データを姿勢データFDmから姿勢データFDnへ更新する。このように、更新部15は、教師データを更新する際に、記憶部16に記憶された教師データTDを姿勢データFDで書き換える代わりに、教師データを指定する情報(例、設定データVD、識別情報)を更新してもよい。
Further, the
[第9実施形態]
第9実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図15は、実施形態に係る検出システムを示す図である。検出システムSYSは、検出装置1、及び制御装置32を備える。本実施形態において、検出装置1は、処理装置3、及び複数の検出部2を備える。複数の検出部2は、ユーザUを互いに異なる方向(例、ユーザUを基準にして互いに異なる方向)から検出可能なように、ユーザUを囲うように配置される。処理装置3は、複数の検出部2のそれぞれから出力される検出結果を処理する。
[9th Embodiment]
A ninth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 15 is a diagram showing a detection system according to an embodiment. The detection system SYS includes a
制御装置32は、検出システムSYSの各部(例、検出部2、処理装置3)を制御する。制御装置32は、複数の検出部2のそれぞれに対して制御信号を供給する。制御装置32は、制御信号によって検出部2に検出を実行させる。制御装置32は、例えば、複数の検出部2のそれぞれが検出を実行するタイミングを制御する。また、制御装置32は、処理装置3に制御信号を供給する。制御装置32は、制御信号によって、処理装置3に処理を実行させる。制御装置32は、例えば、検出部2が検出するタイミングに対して、処理装置3が処理を実行するタイミングを制御する。例えば、制御装置32は、検出部2が予定された検出を終了した後に、処理装置3に検出部2の検出結果を処理させる。制御装置32は、処理装置3に処理結果(例、図1の比較画像のデータ、姿勢データFD、教師データTD)の少なくとも一部の出力を実行させる。
The
なお、検出装置1が備える検出部2の数は、1つでもよいし、2以上でもよい。また、検出システムSYSが備える検出装置1の数は、1つでもよいし、2以上でもよい。また、制御装置32は、処理装置3と同じ装置(例、コンピュータ)に設けられてもよい。また、検出システムSYSは、制御装置32を含まなくてもよい。検出システムSYSは、検出装置1のみで構成されてもよいし、検出装置1および制御装置32と別の装置を備えてもよい
The number of
上述の実施形態において、処理装置3は、例えばコンピュータシステムを含む。処理装置3は、記憶部16に記憶されている検出プログラムを読み出し、この検出プログラムに従って各種の処理を実行する。この検出プログラムは、例えば、コンピュータに、ユーザの人体を検出した検出結果から得られる人体の姿勢データと、過去に取得されたユーザの教師データとを比較することと、姿勢データおよび比較に基づいて、姿勢データを用いて教師データを更新することと、を実行させる。この検出プログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。上記の検出プログラムは、例えばゲームなどのアプリケーションソフトを含んでもよい。例えば、上記の検出プログラムは、サーバなどに格納されており、コンピュータシステム(例、スマートフォン)にダウロードされることで提供されてもよい。また、処理装置3は、検出装置1の少なくとも一部(例、検出部2)と別に提供されてもよい。
In the above-described embodiment, the
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. Further, the requirements described in the above-described embodiments and the like can be appropriately combined. In addition, to the extent permitted by law, the disclosure of all documents cited in the above-mentioned embodiments and the like shall be incorporated as part of the description in the main text.
1・・・検出装置、2・・・検出部、3・・・処理装置、4・・・表示部、5・・・入力部、13・・・処理部、14・・・比較部、15・・・更新部、16・・・記憶部、21・・・選択部、22・・・タイミング検出部、24・・・報知部、25・・・判定部、
31・・・検出システム、FD・・・姿勢データ、HM・・・人体、TD・・・教師データ
1 ... Detection device, 2 ... Detection unit, 3 ... Processing device, 4 ... Display unit, 5 ... Input unit, 13 ... Processing unit, 14 ... Comparison unit, 15 ... update unit, 16 ... storage unit, 21 ... selection unit, 22 ... timing detection unit, 24 ... notification unit, 25 ... judgment unit,
31 ... Detection system, FD ... Posture data, HM ... Human body, TD ... Teacher data
Claims (22)
前記検出部による検出結果から得られる前記ユーザの姿勢データと、過去に取得された前記ユーザの教師データとを比較する比較部と、
前記比較部による比較結果に基づいて、前記姿勢データを用いて前記教師データを更新する更新部と、を備え、
前記比較部は、前記教師データと前記姿勢データとの類似度を算出し、
前記更新部は、前記類似度に基づいて、前記教師データを更新する、検出装置。 A detector that detects the human body of the user and
A comparison unit that compares the posture data of the user obtained from the detection result by the detection unit with the teacher data of the user acquired in the past.
An update unit for updating the teacher data using the posture data based on the comparison result by the comparison unit is provided .
The comparison unit calculates the degree of similarity between the teacher data and the posture data.
The update unit is a detection device that updates the teacher data based on the similarity .
前記検出部による検出結果から得られる前記ユーザの姿勢データと、過去に取得された前記ユーザの教師データとを比較する比較部と、A comparison unit that compares the posture data of the user obtained from the detection result by the detection unit with the teacher data of the user acquired in the past.
前記比較部による比較結果に基づいて、前記姿勢データを用いて前記教師データを更新する更新部と、を備え、An update unit for updating the teacher data using the posture data based on the comparison result by the comparison unit is provided.
前記比較部は、前記検出部により前記人体が繰り返し検出された検出結果から得られる複数の前記姿勢データのそれぞれと、前記教師データとを比較し、The comparison unit compares each of the plurality of posture data obtained from the detection result in which the human body is repeatedly detected by the detection unit with the teacher data.
前記更新部は、前記比較部による比較結果に基づいて、前記複数の姿勢データから選択される姿勢データを用いて前記教師データを更新する、検出装置。The updating unit is a detection device that updates the teacher data using posture data selected from the plurality of posture data based on the comparison result by the comparison unit.
前記検出部による検出結果から得られる前記ユーザの姿勢データと、過去に取得された前記ユーザの教師データとを比較して得られる比較結果に基づいて、前記姿勢データを用いて前記教師データを更新する更新部と、The teacher data is updated using the posture data based on the comparison result obtained by comparing the posture data of the user obtained from the detection result by the detection unit with the teacher data of the user acquired in the past. Update part and
前記比較結果に基づいて、前記教師データを更新するかを判定する判定部と、を備える検出装置。A detection device including a determination unit for determining whether to update the teacher data based on the comparison result.
前記検出部による検出結果から得られる前記ユーザの姿勢データと、過去に取得された前記ユーザの教師データとを比較して得られる比較結果に基づいて、前記姿勢データを用いて前記教師データを更新する更新部と、The teacher data is updated using the posture data based on the comparison result obtained by comparing the posture data of the user obtained from the detection result by the detection unit with the teacher data of the user acquired in the past. Update part and
前記検出部による検出結果に基づいて、前記人体の呼吸のタイミングを検出するタイミング検出部と、を備える検出装置。A detection device including a timing detection unit that detects the timing of respiration of the human body based on the detection result by the detection unit.
前記更新部は、前記記憶部に記憶された前記教師データを前記姿勢データで書き換える、請求項1から請求項12のいずれか一項に記載の検出装置。 A storage unit for storing the teacher data is provided.
The detection device according to any one of claims 1 to 12, wherein the updating unit rewrites the teacher data stored in the storage unit with the posture data.
前記比較部による比較結果に基づいて、前記姿勢データを用いて前記教師データを更新する更新部と、を備え、
前記比較部は、前記人体が繰り返し検出された検出結果から得られる複数の前記姿勢データのそれぞれと、前記教師データとを比較し、
前記更新部は、前記比較部による比較結果に基づいて、前記複数の姿勢データから選択される姿勢データを用いて前記教師データを更新する、処理装置。 A comparison unit that compares the posture data of the user obtained from the detection result of detecting the human body of the user with the teacher data of the user acquired in the past.
An update unit for updating the teacher data using the posture data based on the comparison result by the comparison unit is provided .
The comparison unit compares each of the plurality of posture data obtained from the detection result in which the human body is repeatedly detected with the teacher data.
The updating unit is a processing device that updates the teacher data using posture data selected from the plurality of posture data based on the comparison result by the comparison unit.
ユーザの人体を繰り返し検出した検出結果から得られる前記ユーザの複数の姿勢データのそれぞれと、過去に取得された前記ユーザの教師データとを比較させ、
前記比較の結果に基づいて、前記複数の姿勢データから選択される姿勢データを用いて前記教師データを更新させる、検出プログラム。 On the computer
Each of the plurality of posture data of the user obtained from the detection result of repeatedly detecting the human body of the user is compared with the teacher data of the user acquired in the past.
A detection program that updates the teacher data using posture data selected from the plurality of posture data based on the result of the comparison .
ユーザの人体を検出した検出結果から得られる前記ユーザの姿勢データと、過去に取得された前記ユーザの教師データとの類似度を算出させ、The degree of similarity between the posture data of the user obtained from the detection result of detecting the human body of the user and the teacher data of the user acquired in the past is calculated.
前記類似度に基づいて、前記姿勢データを用いて前記教師データを更新させる、検出プログラム。A detection program that updates the teacher data using the posture data based on the similarity.
ユーザの人体を検出した検出結果から得られる前記ユーザの姿勢データと、過去に取得された前記ユーザの教師データとを比較させ、The posture data of the user obtained from the detection result of detecting the human body of the user is compared with the teacher data of the user acquired in the past.
前記比較の結果に基づいて、前記姿勢データを用いて前記教師データを更新させ、Based on the result of the comparison, the teacher data is updated using the posture data.
前記人体を検出した検出結果から前記人体の呼吸のタイミングを検出させる、検出プログラム。A detection program that detects the timing of respiration of the human body from the detection result of detecting the human body.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143770A JP7011416B2 (en) | 2017-07-25 | 2017-07-25 | Detection device, detection system, processing device and detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143770A JP7011416B2 (en) | 2017-07-25 | 2017-07-25 | Detection device, detection system, processing device and detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019024550A JP2019024550A (en) | 2019-02-21 |
JP7011416B2 true JP7011416B2 (en) | 2022-01-26 |
Family
ID=65474888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017143770A Active JP7011416B2 (en) | 2017-07-25 | 2017-07-25 | Detection device, detection system, processing device and detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7011416B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7007330B2 (en) * | 2019-06-03 | 2022-01-24 | Kddi株式会社 | Training evaluation equipment, methods and programs |
JP7078577B2 (en) * | 2019-06-04 | 2022-05-31 | Kddi株式会社 | Operational similarity evaluation device, method and program |
JP6804781B1 (en) * | 2019-08-03 | 2020-12-23 | 株式会社プラニス | Information processing system, information processing method and computer program |
CN110917604A (en) * | 2019-11-14 | 2020-03-27 | 西安优信机电工程有限公司 | Indoor yoga posture correction system |
WO2021251222A1 (en) * | 2020-06-08 | 2021-12-16 | ソニーグループ株式会社 | Learning device, presentation device, and technique acquisition method |
WO2022075116A1 (en) * | 2020-10-06 | 2022-04-14 | 国立研究開発法人産業技術総合研究所 | Information display device and information display method |
WO2022196059A1 (en) * | 2021-03-19 | 2022-09-22 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP7201850B1 (en) * | 2022-01-24 | 2023-01-10 | 三菱ケミカルグループ株式会社 | Information processing apparatus, method, and program |
WO2023162159A1 (en) * | 2022-02-25 | 2023-08-31 | 日本電気株式会社 | Motion generation device, motion generation system, motion generation method, and non-transitory computer readable medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002292130A (en) | 2001-03-29 | 2002-10-08 | Konami Co Ltd | Battle type game device, and battle game advance controlling method |
JP2008302053A (en) | 2007-06-08 | 2008-12-18 | Square Enix Holdings Co Ltd | Teaching system, teaching device, program recording medium and teaching program |
WO2012039467A1 (en) | 2010-09-22 | 2012-03-29 | パナソニック株式会社 | Exercise assistance system |
JP2014188146A (en) | 2013-03-27 | 2014-10-06 | Nippon Telegraph & Telephone East Corp | Exercise posture evaluation device, exercise posture evaluation method, and computer program |
JP2015012434A (en) | 2013-06-28 | 2015-01-19 | カシオ計算機株式会社 | Form confirmation support device, method and program and form confirmation support system |
JP2015057193A (en) | 2014-12-22 | 2015-03-26 | セイコーエプソン株式会社 | Swing analysis device, swing analysis system, program, and swing analysis method |
JP2016116613A (en) | 2014-12-19 | 2016-06-30 | セイコーエプソン株式会社 | Motion analysis device, motion analysis system, motion analysis method, and program |
WO2017209260A1 (en) | 2016-06-01 | 2017-12-07 | ヤマハ株式会社 | Audio training device and audio training method |
-
2017
- 2017-07-25 JP JP2017143770A patent/JP7011416B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002292130A (en) | 2001-03-29 | 2002-10-08 | Konami Co Ltd | Battle type game device, and battle game advance controlling method |
JP2008302053A (en) | 2007-06-08 | 2008-12-18 | Square Enix Holdings Co Ltd | Teaching system, teaching device, program recording medium and teaching program |
WO2012039467A1 (en) | 2010-09-22 | 2012-03-29 | パナソニック株式会社 | Exercise assistance system |
JP2014188146A (en) | 2013-03-27 | 2014-10-06 | Nippon Telegraph & Telephone East Corp | Exercise posture evaluation device, exercise posture evaluation method, and computer program |
JP2015012434A (en) | 2013-06-28 | 2015-01-19 | カシオ計算機株式会社 | Form confirmation support device, method and program and form confirmation support system |
JP2016116613A (en) | 2014-12-19 | 2016-06-30 | セイコーエプソン株式会社 | Motion analysis device, motion analysis system, motion analysis method, and program |
JP2015057193A (en) | 2014-12-22 | 2015-03-26 | セイコーエプソン株式会社 | Swing analysis device, swing analysis system, program, and swing analysis method |
WO2017209260A1 (en) | 2016-06-01 | 2017-12-07 | ヤマハ株式会社 | Audio training device and audio training method |
Also Published As
Publication number | Publication date |
---|---|
JP2019024550A (en) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7011416B2 (en) | Detection device, detection system, processing device and detection program | |
CN111263953B (en) | Action state evaluation system, device, server, method and storage medium thereof | |
US9737239B2 (en) | Systems and methods for tracking body surfaces of individuals | |
US20200193866A1 (en) | Non-transitory computer readable recording medium, practice assist method, and practice assist system | |
US20160071322A1 (en) | Image processing apparatus, image processing system and storage medium | |
US9218781B2 (en) | Information processing apparatus, display control method, and program | |
US10360444B2 (en) | Image processing apparatus, method and storage medium | |
JP5791812B2 (en) | Clothes image processing device, clothes image display method, and program | |
JP5039808B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
EP3459061A1 (en) | Multi -joint tracking combining embedded sensors and an external | |
CN107004279A (en) | Natural user interface camera calibrated | |
JP5320332B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
CN107617201B (en) | Method for automatically configuring sensor, electronic device, and recording medium | |
CN105228709A (en) | For the signal analysis of duplicate detection and analysis | |
WO2020203656A1 (en) | Information processing device, information processing method, and program | |
JP7126812B2 (en) | Detection device, detection system, image processing device, detection method, image processing program, image display method, and image display system | |
CN105209136A (en) | Center of mass state vector for analyzing user motion in 3D images | |
KR20180103280A (en) | An exercise guidance system for the elderly that performs posture recognition based on distance similarity between joints | |
KR20220028654A (en) | Apparatus and method for providing taekwondo movement coaching service using mirror dispaly | |
CN109815776A (en) | Action prompt method and apparatus, storage medium and electronic device | |
WO2011007545A1 (en) | Training machine and computer-readable medium | |
KR20090084035A (en) | A real time motion recognizing method | |
CN111199583B (en) | Virtual content display method and device, terminal equipment and storage medium | |
US20220165012A1 (en) | Personalized avatar for movement analysis and coaching | |
KR20210128943A (en) | Apparatus and method for comparing and correcting sports posture using neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200612 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7011416 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |