JP2021043730A - Stationary determining system, and computer program - Google Patents
Stationary determining system, and computer program Download PDFInfo
- Publication number
- JP2021043730A JP2021043730A JP2019165678A JP2019165678A JP2021043730A JP 2021043730 A JP2021043730 A JP 2021043730A JP 2019165678 A JP2019165678 A JP 2019165678A JP 2019165678 A JP2019165678 A JP 2019165678A JP 2021043730 A JP2021043730 A JP 2021043730A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- frames
- shooting
- stationary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004590 computer program Methods 0.000 title claims abstract description 8
- 230000003068 static effect Effects 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000000034 method Methods 0.000 claims description 8
- 230000001174 ascending effect Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 210000003423 ankle Anatomy 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 210000004394 hip joint Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、静止判定システム及びコンピュータプログラムに関する。 The present invention relates to a static determination system and a computer program.
特許文献1には、運動動作を行っているユーザーの画像を取得し、その画像に基づいて人間動作スクリーニングスコアを生成し、そのスコアに基づいてパーソナル化エクササイズプログラムを生成する方法が開示されている。
このようなユーザーの動作の評価を行う上で、身体の静止判定を安定的に行う必要が生じていた。 In order to evaluate the movement of such a user, it has been necessary to stably determine the stillness of the body.
本発明はこのような事情に鑑みてなされたものであり、ユーザー動作の静止判定を安定的に行うことを可能にする、静止判定システム及びコンピュータプログラムを提供するものである。 The present invention has been made in view of such circumstances, and provides a static determination system and a computer program that enable stable static determination of a user's operation.
本発明によれば、ユーザーの身体が静止しているか否かを判定するシステムであって、撮影部と、部位特定部と、画像領域設定部と、静止判定部を備え、前記撮影部は、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、前記部位特定部は、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、前記画像領域設定部は、特定された前記所定の部位に対応づけられる画像領域を設定し、前記静止判定部は、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定するシステムが提供される。 According to the present invention, it is a system for determining whether or not the user's body is stationary, and includes a photographing unit, a site specifying unit, an image area setting unit, and a stationary determination unit. The user's motion is photographed to acquire imaging data including a plurality of frames, the site specifying unit identifies a predetermined portion in the user's body with respect to the acquired imaging data, and the image area setting unit , A system that sets an image area associated with the specified predetermined part, and the stationary determination unit determines whether or not the predetermined part is stationary based on the difference between the frames of the image area. Is provided.
このような構成とすることにより、ユーザーの身体における特定の部位について静止判定を安定的に行う事が可能となる。 With such a configuration, it is possible to stably determine the stationary state of a specific part of the user's body.
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。また、各特徴事項について独立して発明が成立する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The various features shown in the embodiments shown below can be combined with each other. In addition, the invention is independently established for each feature.
<1.第1実施形態>
(1−1.判定システム1の全体構成)
図1に示すように、本発明の第1実施形態の判定システム1は、携帯端末10を備える。携帯端末10は、複数のアプリケーションプログラムをインストール可能な、スマートフォンやタブレット端末などを用いることができる。
<1. First Embodiment>
(1-1. Overall configuration of judgment system 1)
As shown in FIG. 1, the
本実施形態では、携帯端末10はカメラ20を備え、ユーザーUを前側から撮影するように配置されている。なお、図1に示す構成は例示であって、携帯端末10は、ユーザーUの前側以外の位置に配置されていてもよい。
In the present embodiment, the
(1−2.携帯端末10の構成)
図2に示すように、携帯端末10の筐体12には、その正面12Aに、画面に画像を表示する画像表示手段であるタッチパネルディスプレイ14が備えられる。タッチパネルディスプレイ14は、例えばLCD(Liquid Crystal Display)及びタッチセンサを備える。LCDは、各種画像を表示し、タッチセンサは、指、スタイラス、又はペン等の指示体を用いて行われる各種入力操作を受け付ける。
(1-2. Configuration of mobile terminal 10)
As shown in FIG. 2, the
また、携帯端末10の正面12Aには、音が入力されるマイクロフォン16、音を出力するスピーカ18、及び被写体を撮像するカメラ20が備えられる。カメラ20は、筐体12の正面12Aだけでなく筐体12の背面にも備えられる。さらに、筐体12の側面12Bには、携帯端末10を起動又は停止させるための電源ボタンやスピーカ18が出力する音のボリューム調整ボタン等の操作ボタン22が備えられる。
Further, the
また、携帯端末10の筐体12には、メモリカードが挿入されるスロットやUSB(Universal Serial Bus)端子等が備えられる。
Further, the
図3は、携帯端末10の電気的構成を示す機能ブロック図である。
FIG. 3 is a functional block diagram showing an electrical configuration of the
携帯端末10は、上記構成に加え、制御部24、記憶部26、通信部28を備える。
In addition to the above configuration, the
制御部24は、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、DSP(Digital Signal Processor)等であり、携帯端末10の全体の動作を制御する。
The
記憶部26は、例えば、RAM(Random Access Memory)やDRAM(Dynamic Random Access Memory)等を含み、制御部24による各種プログラムに基づく処理の実行時のワークエリア等として用いられる。
The
記憶部26は、さらに、フラッシュメモリ等の不揮発性メモリを含み、画像等の各種データ及び制御部24の処理に利用されるプログラム等を保存する。記憶部26に記憶されるプログラムは、例えば、携帯端末10の基本的な機能を実現するためのOS(Operating System)、各種ハードウェア制御するためのドライバ、電子メールやウェブブラウジング、その他各種機能を実現するためのアプリケーションプログラム等である。また、記憶部26には、詳細を後述する本実施形態に係る判定方法を実行するためのプログラムが予め記憶されている。
The
通信部28は、例えばNIC(Network Interface Controller)であり、携帯電話網等の通信網に接続する機能を有する。なお、通信部28は、NICに代えて又はNICと共に、無線LAN(Local Area Network)に接続する機能、無線WAN(Wide Area Network)に接続する機能、例えばBluetooth(登録商標)等の近距離の無線通信、及び赤外線通信等を可能とする機能を有してもよい。
The
これら制御部24、記憶部26、通信部28、タッチパネルディスプレイ14、マイクロフォン16、スピーカ18、カメラ20、及び操作ボタン22は、システムバス30を介して相互に電気的に接続されている。従って、制御部24は、記憶部26へのアクセス、タッチパネルディスプレイ14に対する画像の表示、ユーザーによるタッチパネルディスプレイ14や操作ボタン22に対する操作状態の把握、マイクロフォン16への音の入力、スピーカ18からの音の出力、カメラ20に対する制御、及び通信部28を介した各種通信網や他の情報処理装置へのアクセス等を行うことができる。
The
(1−3.機能ブロック図)
図4は、本実施形態に係る判定機能に関する機能ブロック図である。
(1-3. Functional block diagram)
FIG. 4 is a functional block diagram relating to the determination function according to the present embodiment.
図4に示すように、制御部24は、撮影部31と、部位特定部32と、画像領域設定部33と、静止判定部34を含む。
As shown in FIG. 4, the
撮影部31は、ユーザーUの動作を撮影して複数のフレームを含む撮影データを取得する。部位特定部32は、取得された撮影データについて、静止判定の対象となるユーザーUの所定の部位を特定する。
The
画像領域設定部33は、特定された所定の部位に対応づけられる画像領域を設定する。静止判定部34は、画像領域のフレーム間の差分に基づいて、特定された所定の部位が静止しているか否かを判定する。
The image
上述した制御部24が備える各機能構成は、記憶部26に記憶されているコンピュータプログラムによって実現される。また、コンピュータプログラムは、コンピュータ読み取り可能な非一時的な記録媒体に格納し、必要に応じて当該記録媒体から読み出してもよい。
Each functional configuration included in the
(1−4.判定処理の流れ)
図5を参照し、判定システム1を用いた静止判定の処理の流れを詳細に説明する。
(1-4. Flow of judgment processing)
With reference to FIG. 5, the flow of the static determination process using the
ステップS110において、撮影部31は、ユーザーUの動作を撮影する。ここで、当該撮影がNフレーム/秒でT秒間行われた場合、撮影データに含まれるフレーム数Mは、N×Tで算出される。N,Tは正の実数であり、Mは自然数である。各フレームには静止画像が含まれる。Nは例えば60であり、Tは例えば5である。この場合、撮影データには、300枚(M=60×5=300)の静止画像が含まれることとなる。
In step S110, the photographing
ステップS120において、部位特定部32は、取得された撮影データについて、静止判定の対象となるユーザーUの部位の特定を行う。この特定は、一例として、撮影データを構成する各静止画像に対する二次元姿勢推定による姿勢モデルに基づいて行うことができる。
In step S120, the
二次元姿勢推定では、例えば深層学習を用いたアルゴリズムによって、静止画像中のユーザーUの複数の特徴点の座標を推定することで、ユーザーUの姿勢を二次元的に推定することができる。さらに、複数の静止画像に対して二次元姿勢推定することで、ユーザーUの骨格の動きを計測することも可能となる。 In the two-dimensional posture estimation, the posture of the user U can be estimated two-dimensionally by estimating the coordinates of a plurality of feature points of the user U in the still image by, for example, an algorithm using deep learning. Further, by estimating the two-dimensional posture for a plurality of still images, it is possible to measure the movement of the skeleton of the user U.
図6に、複数の特徴点の配置例を示す。図6は、ユーザーUが右足で片足立ちをしている場合の画像を例示している。ここで、特徴点0〜14は、それぞれ、頭(0)、首(1)、右肩(2)、右肘(3)、右手(4)、左肩(5)、左肘(6)、左手(7)、腰(8)、右股関節(9)、右膝(10)、右足首(11)、左股関節(12)、左膝(13)、左足首(14)に対応する。 FIG. 6 shows an example of arranging a plurality of feature points. FIG. 6 illustrates an image when the user U is standing on one leg with his right foot. Here, the feature points 0 to 14 are the head (0), the neck (1), the right shoulder (2), the right elbow (3), the right hand (4), the left shoulder (5), the left elbow (6), respectively. It corresponds to the left hand (7), hip (8), right hip joint (9), right knee (10), right ankle (11), left hip joint (12), left knee (13), and left ankle (14).
このように、二次元姿勢推定によって各静止画像においてユーザーUの特徴点0〜14の座標を取得すると、これらの座標に基づいて、ユーザーの姿勢を推定することができる。なお、特徴点の数や配置は、本実施形態のものに限定されず、適宜変更可能である。 In this way, when the coordinates of the feature points 0 to 14 of the user U are acquired in each still image by the two-dimensional posture estimation, the user's posture can be estimated based on these coordinates. The number and arrangement of feature points are not limited to those of the present embodiment, and can be changed as appropriate.
このように、各撮影データを構成する各静止画像について二次元姿勢推定で得られた複数の特徴点の座標を、計測データとして取得することができる。ここで、撮影データがMフレームで構成される場合、その撮影データに対応する計測データもMフレームで構成される。 In this way, the coordinates of a plurality of feature points obtained by the two-dimensional posture estimation for each still image constituting each shooting data can be acquired as measurement data. Here, when the shooting data is composed of M frames, the measurement data corresponding to the shooting data is also composed of M frames.
部位特定部32は、取得した計測データ(すなわち、複数の特徴点の座標)に基づいて、ユーザーUの身体における所定の部位を特定する。ここで、部位特定部32は、ユーザーUの動作に応じて、特定すべき部位を変更してもよい。この場合、部位特定部32は、全ての特徴点について計測データを取得する必要はなく、ユーザーUが行う動作毎に特定すべき部位のみについて計測データの取得を行ってもよい。
The
ステップS130において、画像領域設定部33は、特定された所定の部位に対応づけられる画像領域Dを設定する。画像領域Dの設定にあたり、ユーザーUの動作ごとに対応する特徴点が記憶部26に記憶されている。一例として、図7に示す右足で片足立ちをする動作については、上半身の部位である1〜7の特徴点が所定の部位として対応づけられている。そこで、画像領域設定部33は、記憶部26を参照し、特徴点1〜7を含む画像を画像領域Dとして設定する。また、画像領域設定部33は、例えば、特定すべき部位が上半身である場合、特徴点8(腰)よりも上側の画像を画像領域Dとして設定してもよい。
In step S130, the image
また、図8に示す他の例では、ユーザーUが左腕を伸ばした場合が例示されている。このような場合に、左腕の位置を特徴点5〜7の座標位置から推定するために、特徴点5〜7を含む画像を画像領域Dとして設定してもよい。 Further, in another example shown in FIG. 8, a case where the user U extends his / her left arm is illustrated. In such a case, in order to estimate the position of the left arm from the coordinate positions of the feature points 5 to 7, an image including the feature points 5 to 7 may be set as the image area D.
ステップS140において、静止判定部34は、画像領域のフレーム間の差分に基づいて、特定された所定の部位が静止しているか否かを判定する。具体的には、静止判定部34は、取得された撮影データにおける連続する3つのフレームについて、画像領域に含まれる各ピクセルに対する階調値の差分を算出し、特定された所定の部位が静止しているか否かを判定する。
In step S140, the
以下、図9を参照して具体的に説明する。図9には、取得された撮影データから選出された3つの連続する画像G1〜G3が示されている。なお、当該撮影データは、300枚の静止画像(M=300)で構成されているとし、始点フレームF1から終点フレームF300で構成される。画像G1〜G3は、それぞれ、フレームFn〜Fn+2(1≦n≦298)に対応する。 Hereinafter, a specific description will be given with reference to FIG. FIG. 9 shows three consecutive images G1 to G3 selected from the acquired shooting data. It is assumed that the shooting data is composed of 300 still images (M = 300), and is composed of a start point frame F1 to an end point frame F300. The images G1 to G3 correspond to frames Fn to Fn + 2 (1 ≦ n ≦ 298), respectively.
画像G1〜G3は、それぞれ、画像領域設定部33によって設定された画像領域D1〜D3を含む。ここで、画像領域D1〜D3は、複数のピクセルごとに0〜255までの階調値を有する。すなわち、以下の(式1)〜(式3)で表すことができる。
The images G1 to G3 include image areas D1 to D3 set by the image
ここで、D1(i,j)は、画像領域D1に含まれる各ピクセルを意味する。演算子「∋」は、取りうる値を意味する。静止判定部34は、フレームが連続する画像領域ごとの差分の絶対値を差分画像F12,F23として算出する。
Here, D1 (i, j) means each pixel included in the image area D1. The operator "∋" means a possible value. The
次に、静止判定部34は、差分画像F12およびF23に対して、論理積を計算して論理積画像Faを算出する。
Next, the
ここで、演算子「∩」は、積集合を意味する。次に、静止判定部34は、任意の閾値Tと比較することにより二値化処理を行い、二値化された差分画像Ftを算出する。
Here, the operator "∩" means an intersection. Next, the
上記処理により、画像領域D1〜D3において、静止していると判定された部分(ピクセル)は階調値が255となり、静止していないと判定されたピクセルは階調値が0となる。なお、閾値Tは、静止判定において求める精度に応じて適宜設定すればよい。 By the above processing, in the image areas D1 to D3, the gradation value is 255 for the portion (pixel) determined to be stationary, and the gradation value is 0 for the pixel determined not to be stationary. The threshold value T may be appropriately set according to the accuracy obtained in the static determination.
次に、差分画像Ftにおけるピクセル値の総和Fを算出し、静止判定の判定値Fvを算出する。 Next, the total sum F of the pixel values in the difference image Ft is calculated, and the determination value Fv of the static determination is calculated.
以上のようにして、フレームFn〜Fn+2(1≦n≦298)について、複数(本実施形態では298個)の判定値Fvが求まる。この判定値Fvに対して、所定の統計処理を行い、予め定められた閾値と比較することにより、静止判定が行われる。ここでの統計処理とは、例えば、単純和、加重和、又はこれに基づく値(単純平均、加重平均)などの統計的に求まる値を算出する処理である。 As described above, a plurality of (298 in this embodiment) determination values Fv can be obtained for the frames Fn to Fn + 2 (1 ≦ n ≦ 298). The static determination is performed by performing a predetermined statistical process on the determination value Fv and comparing it with a predetermined threshold value. The statistical processing here is a process of calculating a statistically obtained value such as a simple sum, a weighted sum, or a value based on the simple sum, a weighted sum, or a value based on the simple sum, a weighted average, or the like (simple average, weighted average).
以上のようにして、本実施形態に係る判定システム1は、撮影部31と、部位特定部32と、画像領域設定部33と、静止判定部34を備える。撮影部31は、ユーザーの動作を撮影して複数フレームを含む撮影データを取得する。部位特定部32は、取得された撮影データについて、ユーザーの身体における所定の部位を特定する。
As described above, the
画像領域設定部33は、特定された所定の部位に対応づけられる画像領域を設定する。静止判定部34は、画像領域のフレーム間の差分に基づいて所定の部位が静止しているか否かを判定する。
The image
このような構成とすることにより、ユーザーの身体の特定の部位について、検出時のブレなどの影響を抑制することができ、静止判定を安定的に行うことが可能となる。 With such a configuration, it is possible to suppress the influence of blurring or the like at the time of detection on a specific part of the user's body, and it is possible to stably perform a stationary determination.
<2.第2実施形態>
図10を参照し、第2実施形態に係る判定システム1について説明する。第2実施形態に係る判定システム1は、携帯端末10としての親機10aおよび子機10bを含む点で第1実施形態と異なる。以下、第1実施形態との相違点を中心に説明する。
<2. Second Embodiment>
The
図10に示すように、本実施形態においては、ユーザーUの右側、左側、後側に子機10bが配置される。子機10bは、親機10aと同様に、携帯端末10で構成される。親機10aと子機10bは、通信部28を通じて通信可能に構成されている。子機10bは、撮影部31として機能し、複数の方向からユーザーUの動作を撮影し、撮影データを複数取得する。
As shown in FIG. 10, in the present embodiment, the slave units 10b are arranged on the right side, the left side, and the rear side of the user U. The slave unit 10b is composed of the
子機10bで取得された撮影データは、親機10aに対して送信される。親機10aの部位特定部32は、取得された複数の撮影データに対してそれぞれ所定の部位を特定する。
The shooting data acquired by the slave unit 10b is transmitted to the
静止判定部34は、複数の方向から取得された撮影データに対して、ユーザーUに対する撮影方向に基づく重み付けを設定する。静止判定部34は、画像領域設定部33によって設定された画像領域のフレーム間の差分と、当該重み付けとに基づいて、ユーザーの所定の部位が静止しているか否かを判定する。
The
このような構成とすることにより、複数の撮影データに基づいてユーザーの身体が静止しているか否かを解析することとなり、より安定的に静止判定を行うことができる。 With such a configuration, it is possible to analyze whether or not the user's body is stationary based on a plurality of shooting data, and it is possible to perform a more stable stationary determination.
ここで、好ましくは、静止判定部34は、撮影するユーザーUの動作に応じて、撮影方向に基づく重み付けを設定してもよい。撮影方向に基づく重み付けは、特定された所定の部位に対応づけられて設定される。すなわち、ユーザーUの動作において、所定の部位ごとに動きが検知されやすい方向からの撮影データについて、重み付けを大きく設定することなどが考えられる。
Here, preferably, the
このような構成とすることにより、ユーザーの動作に応じて撮影方向に基づく重み付けを変化させることが可能となり、より安定的に静止判定を行うことができる。 With such a configuration, it is possible to change the weighting based on the shooting direction according to the movement of the user, and it is possible to perform the stillness determination more stably.
<3.その他の実施形態>
以上、実施形態について説明したが、本願の技術的範囲の適用範囲は、上記実施形態に限定されるものではない。
<3. Other embodiments>
Although the embodiments have been described above, the scope of application of the technical scope of the present application is not limited to the above embodiments.
たとえば、静止判定部34は、取得した撮影データに含まれる連続したLフレームの中から、静止判定の判定値に基づいて選択された3つのフレームを判定対象フレームとして選出する仕様としてもよい。
For example, the
この場合、静止判定部34は、たとえば、始点となるフレームが異なるP通りの連続する3つのフレーム(L=3)について静止判定の判定値を算出する。ここで、Pは自然数である。静止判定部34は、P通りの判定値をユーザーUの動きが小さい順に並べたときの順位がQ位以内であることであるフレームを判定対象フレームとして選出してもよい。なお、Lは3以外の値とすることもできる。
In this case, the
例えば、P=90で、Q=10であれば、90通りの判定値Fvの中から値が小さい10個の判定値Fvを選出する。また、P=90で、Q=1であり、フレームF121から始まる連続する3つのフレーム(つまり、フレームF121〜F123)の判定値Fvが最小であれば、フレームF121〜F123が判定対象フレームとなる。なお、フレームF0を始点とする連続する3つのフレームについて判定値Fvを算出してもよいが、撮像開始直後のデータは信頼性が低い。つまり、計測データのうち最初の複数のフレームを除外して判定対象フレームを特定することによって判定の信頼性を高めてもよい。 For example, if P = 90 and Q = 10, 10 determination values Fv with smaller values are selected from 90 determination values Fv. Further, if P = 90, Q = 1, and the determination value Fv of three consecutive frames starting from the frame F121 (that is, frames F121 to F123) is the minimum, the frames F121 to F123 become the determination target frames. .. Although the determination value Fv may be calculated for three consecutive frames starting from the frame F0, the reliability of the data immediately after the start of imaging is low. That is, the reliability of the determination may be improved by excluding the first plurality of frames from the measurement data and specifying the determination target frame.
また、第2実施形態のように複数の方向から撮影する場合の評価対象フレームの選出にあたっては、重み付けが最も大きい撮影方向からの撮影データから、静止判定の判定値Fvを算出して判定対象フレームを選出してもよい。この場合、選出された判定対象フレームに対応する他の撮影方向のフレームの判定値Fvを算出し、各方向の判定値Fvに撮影方向に基づく重み付けを考慮して静止判定を行うこととなる。 Further, in selecting the evaluation target frame when shooting from a plurality of directions as in the second embodiment, the judgment target frame for static determination is calculated from the shooting data from the shooting direction having the largest weighting. May be elected. In this case, the determination value Fv of the frame in the other shooting direction corresponding to the selected determination target frame is calculated, and the static determination is performed in consideration of the weighting based on the photographing direction for the determination value Fv in each direction.
また、上記実施形態では、スマートフォンやタブレットなどの携帯端末10を用いて判定システム1を構成しているが、判定システム1を構成している装置の少なくとも1つは、通信可能で且つ撮影機能を有する任意の装置(例:Webカメラ)であってもよい。
Further, in the above embodiment, the
さらに、本発明は、上述の判定システムを実現させるための携帯端末を機能させるプログラムとして実現することもできる。 Further, the present invention can also be realized as a program for operating a mobile terminal for realizing the above-mentioned determination system.
さらに、本発明は、上述のプログラムを格納する、コンピュータが読み取り可能な非一時的な記録媒体として実現することもできる。 Furthermore, the present invention can also be realized as a non-temporary recording medium that can be read by a computer and stores the above-mentioned program.
<4.実施形態の特徴>
以下、本発明の実施形態の特徴をまとめる。
<4. Features of the embodiment>
The features of the embodiments of the present invention are summarized below.
判定システム1は、撮影部31と、部位特定部32と、画像領域設定部33と、静止判定部34を備える。撮影部31は、ユーザーの動作を撮影して複数フレームを含む撮影データを取得する。部位特定部32は、取得された撮影データについて、ユーザーの身体における所定の部位を特定する。画像領域設定部33は、特定された所定の部位に対応づけられる画像領域を設定する。静止判定部34は、画像領域のフレーム間の差分に基づいて所定の部位が静止しているか否かを判定する。
The
このような構成とすることにより、ユーザーの身体の特定の部位について、検出時のブレなどの影響を抑制することができ、静止判定を安定的に行うことが可能となる。 With such a configuration, it is possible to suppress the influence of blurring or the like at the time of detection on a specific part of the user's body, and it is possible to stably perform a stationary determination.
判定システム1の備える部位特定部32は、撮影データから推定される姿勢モデルに基づいて、ユーザーUの身体における所定の部位を特定してもよい。
The
このような構成とすることにより、ユーザーの身体における部位の特定を安定的に実現することができる。 With such a configuration, it is possible to stably identify a part of the user's body.
部位特定部32は、ユーザーUの動作に基づいて所定の部位を特定してもよい。
The
このような構成とすることにより、動作ごとに特定する部位を設定することとなり、より安定的に部位の特定を行うことができる。 With such a configuration, a part to be specified can be set for each operation, and the part can be specified more stably.
撮影データの複数フレームは、Mフレームで構成され、静止判定部34は、撮影データの中から始点となるフレームが異なるP通りの連続するLフレームに対して、フレーム間の差分に基づいて所定の部位の静止度合いについての判定値Fvを算出し、P通りの判定値Fvを所定の部位の動きが小さい順に並べたときの順位がQ位以内であるLフレームに基づいて、特定された所定の部位が静止しているか否かを判定してもよい。
The plurality of frames of the shooting data are composed of M frames, and the
このような構成とすることにより、静止判定の対象を絞り込むこととなり、より安定的に静止判定を行うことができる。 With such a configuration, the target of the stationary determination can be narrowed down, and the stationary determination can be performed more stably.
撮影部31は、複数の方向から前記ユーザーの動作を撮影して撮影データを複数取得し、部位特定部32は、取得された前記複数の撮影データに対してそれぞれ前記所定の部位を特定してもよい。
The photographing
このような構成とすることにより、複数の撮影データを解析することとなり、より安定的に静止判定を行うことができる。 With such a configuration, a plurality of shooting data can be analyzed, and static determination can be performed more stably.
静止判定部34は、複数の撮影データに対して、ユーザーUに対する撮影方向に基づく重み付けを設定し、画像領域のフレーム間の差分と、撮影データの重み付けとに基づいて、所定の部位が静止しているか否かを判定してもよい。
The
このような構成とすることにより、複数のデータに対して撮影方向での重み付けを行うこととなり、より安定的に静止判定を行うことができる。 With such a configuration, a plurality of data are weighted in the shooting direction, and the stillness determination can be performed more stably.
静止判定部34は、ユーザーUの動作に応じて、撮影方向に基づく重み付けを設定してもよい。
The
このような構成とすることにより、動作に応じて撮影方向の重み付けを変化させることとなり、より安定的に静止判定を行うことができる。 With such a configuration, the weighting in the shooting direction is changed according to the operation, and the stationary determination can be performed more stably.
本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although various embodiments according to the present invention have been described, they are presented as examples and are not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.
1 :判定システム
10 :携帯端末
10a :親機
10b :子機
11 :特徴点
12 :筐体
12A :正面
12B :側面
13 :特徴点
14 :タッチパネルディスプレイ
16 :マイクロフォン
18 :スピーカ
20 :カメラ
22 :操作ボタン
24 :制御部
26 :記憶部
28 :通信部
30 :システムバス
31 :撮影部
32 :部位特定部
33 :画像領域設定部
34 :静止判定部
U :ユーザー
1: Judgment system 10:
Claims (8)
撮影部と、部位特定部と、画像領域設定部と、静止判定部を備え、
前記撮影部は、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、
前記部位特定部は、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、
前記画像領域設定部は、特定された前記所定の部位に対応づけられる画像領域を設定し、
前記静止判定部は、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定する、システム。 It is a system that determines whether the user's body is stationary.
It is equipped with a shooting unit, a part identification unit, an image area setting unit, and a stillness determination unit.
The shooting unit captures the movement of the user and acquires shooting data including a plurality of frames.
The site identification unit identifies a predetermined site in the user's body with respect to the acquired shooting data.
The image area setting unit sets an image area associated with the specified predetermined portion, and sets the image area.
The rest determination unit is a system that determines whether or not the predetermined portion is stationary based on the difference between the frames of the image region.
前記部位特定部は、前記撮影データから推定される姿勢モデルに基づいて、前記ユーザーの身体における所定の部位を特定する、システム。 The system according to claim 1.
The site identification unit is a system that identifies a predetermined site in the user's body based on a posture model estimated from the imaging data.
前記部位特定部は、前記ユーザーの動作に基づいて所定の部位を特定する、システム。 The system according to claim 1 or 2.
The site specifying unit is a system that identifies a predetermined site based on the movement of the user.
前記撮影データの複数フレームは、Mフレームで構成され、
前記静止判定部は、
撮影データの中から始点となるフレームが異なるP通りの連続するLフレームに対して、フレーム間の差分に基づいて前記所定の部位の静止度合いについての判定値を算出し、
前記P通りの判定値を前記所定の部位の動きが小さい順に並べたときの順位がQ位以内であるLフレームに基づいて、特定された前記所定の部位が静止しているか否かを判定する、システム。 The system according to any one of claims 1 to 3.
The plurality of frames of the shooting data are composed of M frames.
The stationary determination unit
For continuous L frames in P ways with different starting frames from the shooting data, a judgment value for the degree of rest of the predetermined portion is calculated based on the difference between the frames.
It is determined whether or not the specified predetermined part is stationary based on the L frame in which the order of the determination values according to P is arranged in ascending order of the movement of the predetermined part within the Q position. ,system.
前記撮影部は、複数の方向から前記ユーザーの動作を撮影して撮影データを複数取得し、
前記部位特定部は、取得された前記複数の撮影データに対してそれぞれ前記所定の部位を特定する、システム。 The system according to any one of claims 1 to 4.
The shooting unit captures the user's movements from a plurality of directions and acquires a plurality of shooting data.
The site identification unit is a system that identifies the predetermined site with respect to the acquired plurality of imaging data.
前記静止判定部は、
複数の前記撮影データに対して、前記ユーザーに対する撮影方向に基づく重み付けを設定し、
前記画像領域のフレーム間の差分と、前記撮影データの重み付けとに基づいて、前記所定の部位が静止しているか否かを判定する、システム。 The system according to claim 5.
The stationary determination unit
For the plurality of the shooting data, weighting based on the shooting direction for the user is set.
A system that determines whether or not the predetermined portion is stationary based on the difference between the frames of the image region and the weighting of the shooting data.
前記静止判定部は、前記ユーザーの動作に応じて、前記撮影方向に基づく重み付けを設定する、システム。 The system according to claim 6.
The static determination unit is a system that sets weighting based on the shooting direction according to the operation of the user.
前記撮影ステップでは、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、
前記部位特定ステップでは、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、
前記画像領域設定ステップでは、特定された前記所定の部位に対応づけられる画像領域を設定し、
前記静止判定ステップでは、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定する、コンピュータプログラム。 A computer program that causes a computer to execute a method for determining whether or not a user's body is stationary, which includes a shooting step, a site identification step, an image area setting step, and a rest determination step.
In the shooting step, the movement of the user is shot to acquire shooting data including a plurality of frames, and the shooting data is acquired.
In the site identification step, a predetermined site in the user's body is identified with respect to the acquired imaging data.
In the image area setting step, an image area associated with the specified predetermined portion is set.
In the rest determination step, a computer program that determines whether or not the predetermined portion is stationary based on the difference between the frames of the image area.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165678A JP7397282B2 (en) | 2019-09-11 | 2019-09-11 | Stationary determination system and computer program |
JP2023197608A JP2024015004A (en) | 2019-09-11 | 2023-11-21 | Stationary determining system, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165678A JP7397282B2 (en) | 2019-09-11 | 2019-09-11 | Stationary determination system and computer program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023197608A Division JP2024015004A (en) | 2019-09-11 | 2023-11-21 | Stationary determining system, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043730A true JP2021043730A (en) | 2021-03-18 |
JP7397282B2 JP7397282B2 (en) | 2023-12-13 |
Family
ID=74862403
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019165678A Active JP7397282B2 (en) | 2019-09-11 | 2019-09-11 | Stationary determination system and computer program |
JP2023197608A Pending JP2024015004A (en) | 2019-09-11 | 2023-11-21 | Stationary determining system, and computer program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023197608A Pending JP2024015004A (en) | 2019-09-11 | 2023-11-21 | Stationary determining system, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7397282B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001056861A (en) * | 1999-06-08 | 2001-02-27 | Matsushita Electric Ind Co Ltd | Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded |
JP2012098988A (en) * | 2010-11-04 | 2012-05-24 | Sony Corp | Image processing apparatus and method, and program |
WO2012147961A1 (en) * | 2011-04-28 | 2012-11-01 | Necシステムテクノロジー株式会社 | Information processing device, information processing method, and recording medium |
JP2015170206A (en) * | 2014-03-07 | 2015-09-28 | 富士通株式会社 | detection device and detection method |
-
2019
- 2019-09-11 JP JP2019165678A patent/JP7397282B2/en active Active
-
2023
- 2023-11-21 JP JP2023197608A patent/JP2024015004A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001056861A (en) * | 1999-06-08 | 2001-02-27 | Matsushita Electric Ind Co Ltd | Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded |
JP2012098988A (en) * | 2010-11-04 | 2012-05-24 | Sony Corp | Image processing apparatus and method, and program |
WO2012147961A1 (en) * | 2011-04-28 | 2012-11-01 | Necシステムテクノロジー株式会社 | Information processing device, information processing method, and recording medium |
JP2015170206A (en) * | 2014-03-07 | 2015-09-28 | 富士通株式会社 | detection device and detection method |
Also Published As
Publication number | Publication date |
---|---|
JP7397282B2 (en) | 2023-12-13 |
JP2024015004A (en) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9928411B2 (en) | Image processing apparatus, image processing system, image processing method, and computer program product | |
Siena et al. | Utilising the intel realsense camera for measuring health outcomes in clinical research | |
JP5786463B2 (en) | Image processing apparatus, image processing method, and program | |
US20170213385A1 (en) | Apparatus and method for generating 3d face model using mobile device | |
WO2014016987A1 (en) | Three-dimensional user-interface device, and three-dimensional operation method | |
JP2012253483A (en) | Image processing apparatus, image processing method, and program | |
KR101118654B1 (en) | rehabilitation device using motion analysis based on motion capture and method thereof | |
JP5613741B2 (en) | Image processing apparatus, method, and program | |
JP6002058B2 (en) | Image processing apparatus, method, and program | |
JP6008025B2 (en) | Image processing apparatus, image processing method, and program | |
EP2894851B1 (en) | Image processing device, image processing method, program, and computer-readable storage medium | |
JP2016101229A (en) | Gait analysis system and gait analysis program | |
CN110738548B (en) | Virtual fitting method and device, mobile terminal and computer readable storage medium | |
JP5876121B2 (en) | Image processing apparatus, method, and program | |
JP7397282B2 (en) | Stationary determination system and computer program | |
JP2020092944A (en) | User operation evaluation system and computer program | |
JP2021096537A (en) | Biological information acquisition device, terminal device, biological information acquisition method, biological information acquisition program, and computer readable recording medium | |
JP6661882B2 (en) | Information processing apparatus, tremor information display method, information processing system, and program | |
JP2020149565A (en) | Image processing system, image processing method and program | |
TWI819512B (en) | Information processing devices, information processing methods and information processing programs | |
JP7323234B2 (en) | Guide method | |
JP7390891B2 (en) | Client device, server, program, and information processing method | |
WO2020240989A1 (en) | Imaging device, imaging control method, and imaging control program | |
JP2023137370A (en) | Display method and display system | |
JP2020092945A (en) | User operation evaluation system and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7397282 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |