JP2021043730A - Stationary determining system, and computer program - Google Patents

Stationary determining system, and computer program Download PDF

Info

Publication number
JP2021043730A
JP2021043730A JP2019165678A JP2019165678A JP2021043730A JP 2021043730 A JP2021043730 A JP 2021043730A JP 2019165678 A JP2019165678 A JP 2019165678A JP 2019165678 A JP2019165678 A JP 2019165678A JP 2021043730 A JP2021043730 A JP 2021043730A
Authority
JP
Japan
Prior art keywords
unit
user
frames
shooting
stationary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019165678A
Other languages
Japanese (ja)
Other versions
JP7397282B2 (en
Inventor
昂矢 橋口
Takaya Hashiguchi
昂矢 橋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixi Inc
Original Assignee
Mixi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixi Inc filed Critical Mixi Inc
Priority to JP2019165678A priority Critical patent/JP7397282B2/en
Publication of JP2021043730A publication Critical patent/JP2021043730A/en
Priority to JP2023197608A priority patent/JP2024015004A/en
Application granted granted Critical
Publication of JP7397282B2 publication Critical patent/JP7397282B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a system for determining a user movement and a computer program therefor which can stably determine a user movement.SOLUTION: The present invention is directed to a system for determining whether or not a user body is stationary. The system has a photographing unit, a site specifying unit, an image region setting unit, and a stationary determining unit. The photographing unit acquires photographed data including a plurality of frames by photographing the user movement. The site specifying unit specifies a predetermined site of the user body with respect to the acquired photographed data. The image region setting unit sets an image region corresponding to the specified predetermined site. The stationary determining unit determines whether or not the predetermined site is stationary based on a difference between frames of the image region.SELECTED DRAWING: Figure 7

Description

本発明は、静止判定システム及びコンピュータプログラムに関する。 The present invention relates to a static determination system and a computer program.

特許文献1には、運動動作を行っているユーザーの画像を取得し、その画像に基づいて人間動作スクリーニングスコアを生成し、そのスコアに基づいてパーソナル化エクササイズプログラムを生成する方法が開示されている。 Patent Document 1 discloses a method of acquiring an image of a user performing an exercise motion, generating a human motion screening score based on the image, and generating a personalized exercise program based on the score. ..

特開2016−73789号公報Japanese Unexamined Patent Publication No. 2016-73789

このようなユーザーの動作の評価を行う上で、身体の静止判定を安定的に行う必要が生じていた。 In order to evaluate the movement of such a user, it has been necessary to stably determine the stillness of the body.

本発明はこのような事情に鑑みてなされたものであり、ユーザー動作の静止判定を安定的に行うことを可能にする、静止判定システム及びコンピュータプログラムを提供するものである。 The present invention has been made in view of such circumstances, and provides a static determination system and a computer program that enable stable static determination of a user's operation.

本発明によれば、ユーザーの身体が静止しているか否かを判定するシステムであって、撮影部と、部位特定部と、画像領域設定部と、静止判定部を備え、前記撮影部は、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、前記部位特定部は、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、前記画像領域設定部は、特定された前記所定の部位に対応づけられる画像領域を設定し、前記静止判定部は、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定するシステムが提供される。 According to the present invention, it is a system for determining whether or not the user's body is stationary, and includes a photographing unit, a site specifying unit, an image area setting unit, and a stationary determination unit. The user's motion is photographed to acquire imaging data including a plurality of frames, the site specifying unit identifies a predetermined portion in the user's body with respect to the acquired imaging data, and the image area setting unit , A system that sets an image area associated with the specified predetermined part, and the stationary determination unit determines whether or not the predetermined part is stationary based on the difference between the frames of the image area. Is provided.

このような構成とすることにより、ユーザーの身体における特定の部位について静止判定を安定的に行う事が可能となる。 With such a configuration, it is possible to stably determine the stationary state of a specific part of the user's body.

本発明の第1実施形態の判定システム1の構成図である。It is a block diagram of the determination system 1 of the 1st Embodiment of this invention. 携帯端末10の外観を示す図である。It is a figure which shows the appearance of the mobile terminal 10. 携帯端末10のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of a mobile terminal 10. 判定システム1の機能ブロック図である。It is a functional block diagram of the determination system 1. 判定方法の処理の流れを示すフローチャートである。It is a flowchart which shows the process flow of the determination method. 部位特定部32による部位の特定を示す説明図である。It is explanatory drawing which shows the identification of the part | region by the part identification part 32. 画像領域設定部33による領域設定の一例を示す図である。It is a figure which shows an example of the area setting by the image area setting unit 33. 画像領域設定部33による領域設定の他の例を示す図である。It is a figure which shows another example of the area setting by the image area setting unit 33. 静止判定部34による静止判定を説明する図である。It is a figure explaining the stationary determination by the stationary determination unit 34. 本発明の第2実施形態の判定システム1の構成図である。It is a block diagram of the determination system 1 of the 2nd Embodiment of this invention.

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。また、各特徴事項について独立して発明が成立する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The various features shown in the embodiments shown below can be combined with each other. In addition, the invention is independently established for each feature.

<1.第1実施形態>
(1−1.判定システム1の全体構成)
図1に示すように、本発明の第1実施形態の判定システム1は、携帯端末10を備える。携帯端末10は、複数のアプリケーションプログラムをインストール可能な、スマートフォンやタブレット端末などを用いることができる。
<1. First Embodiment>
(1-1. Overall configuration of judgment system 1)
As shown in FIG. 1, the determination system 1 of the first embodiment of the present invention includes a mobile terminal 10. As the mobile terminal 10, a smartphone, a tablet terminal, or the like on which a plurality of application programs can be installed can be used.

本実施形態では、携帯端末10はカメラ20を備え、ユーザーUを前側から撮影するように配置されている。なお、図1に示す構成は例示であって、携帯端末10は、ユーザーUの前側以外の位置に配置されていてもよい。 In the present embodiment, the mobile terminal 10 includes a camera 20 and is arranged so as to photograph the user U from the front side. The configuration shown in FIG. 1 is an example, and the mobile terminal 10 may be arranged at a position other than the front side of the user U.

(1−2.携帯端末10の構成)
図2に示すように、携帯端末10の筐体12には、その正面12Aに、画面に画像を表示する画像表示手段であるタッチパネルディスプレイ14が備えられる。タッチパネルディスプレイ14は、例えばLCD(Liquid Crystal Display)及びタッチセンサを備える。LCDは、各種画像を表示し、タッチセンサは、指、スタイラス、又はペン等の指示体を用いて行われる各種入力操作を受け付ける。
(1-2. Configuration of mobile terminal 10)
As shown in FIG. 2, the housing 12 of the mobile terminal 10 is provided with a touch panel display 14 which is an image display means for displaying an image on the screen on the front surface 12A thereof. The touch panel display 14 includes, for example, an LCD (Liquid Crystal Display) and a touch sensor. The LCD displays various images, and the touch sensor accepts various input operations performed using an indicator such as a finger, a stylus, or a pen.

また、携帯端末10の正面12Aには、音が入力されるマイクロフォン16、音を出力するスピーカ18、及び被写体を撮像するカメラ20が備えられる。カメラ20は、筐体12の正面12Aだけでなく筐体12の背面にも備えられる。さらに、筐体12の側面12Bには、携帯端末10を起動又は停止させるための電源ボタンやスピーカ18が出力する音のボリューム調整ボタン等の操作ボタン22が備えられる。 Further, the front surface 12A of the mobile terminal 10 is provided with a microphone 16 for inputting sound, a speaker 18 for outputting sound, and a camera 20 for capturing a subject. The camera 20 is provided not only on the front surface 12A of the housing 12 but also on the back surface of the housing 12. Further, the side surface 12B of the housing 12 is provided with operation buttons 22 such as a power button for starting or stopping the mobile terminal 10 and a sound volume adjustment button output by the speaker 18.

また、携帯端末10の筐体12には、メモリカードが挿入されるスロットやUSB(Universal Serial Bus)端子等が備えられる。 Further, the housing 12 of the mobile terminal 10 is provided with a slot into which a memory card is inserted, a USB (Universal Serial Bus) terminal, and the like.

図3は、携帯端末10の電気的構成を示す機能ブロック図である。 FIG. 3 is a functional block diagram showing an electrical configuration of the mobile terminal 10.

携帯端末10は、上記構成に加え、制御部24、記憶部26、通信部28を備える。 In addition to the above configuration, the mobile terminal 10 includes a control unit 24, a storage unit 26, and a communication unit 28.

制御部24は、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、DSP(Digital Signal Processor)等であり、携帯端末10の全体の動作を制御する。 The control unit 24 is, for example, a CPU (Central Processing Unit), a microprocessor, a DSP (Digital Signal Processor), or the like, and controls the entire operation of the mobile terminal 10.

記憶部26は、例えば、RAM(Random Access Memory)やDRAM(Dynamic Random Access Memory)等を含み、制御部24による各種プログラムに基づく処理の実行時のワークエリア等として用いられる。 The storage unit 26 includes, for example, a RAM (Random Access Memory), a DRAM (Dynamic Random Access Memory), and the like, and is used as a work area or the like when the control unit 24 executes processing based on various programs.

記憶部26は、さらに、フラッシュメモリ等の不揮発性メモリを含み、画像等の各種データ及び制御部24の処理に利用されるプログラム等を保存する。記憶部26に記憶されるプログラムは、例えば、携帯端末10の基本的な機能を実現するためのOS(Operating System)、各種ハードウェア制御するためのドライバ、電子メールやウェブブラウジング、その他各種機能を実現するためのアプリケーションプログラム等である。また、記憶部26には、詳細を後述する本実施形態に係る判定方法を実行するためのプログラムが予め記憶されている。 The storage unit 26 further includes a non-volatile memory such as a flash memory, and stores various data such as images and a program or the like used for processing of the control unit 24. The program stored in the storage unit 26 includes, for example, an OS (Operating System) for realizing the basic functions of the mobile terminal 10, a driver for controlling various hardware, e-mail, web browsing, and various other functions. It is an application program to realize it. Further, the storage unit 26 stores in advance a program for executing the determination method according to the present embodiment, which will be described in detail later.

通信部28は、例えばNIC(Network Interface Controller)であり、携帯電話網等の通信網に接続する機能を有する。なお、通信部28は、NICに代えて又はNICと共に、無線LAN(Local Area Network)に接続する機能、無線WAN(Wide Area Network)に接続する機能、例えばBluetooth(登録商標)等の近距離の無線通信、及び赤外線通信等を可能とする機能を有してもよい。 The communication unit 28 is, for example, a NIC (Network Interface Controller) and has a function of connecting to a communication network such as a mobile phone network. The communication unit 28 has a function of connecting to a wireless LAN (Local Area Network) instead of or together with the NIC, a function of connecting to a wireless WAN (Wide Area Network), for example, a short-range Bluetooth (registered trademark) or the like. It may have a function that enables wireless communication, infrared communication, and the like.

これら制御部24、記憶部26、通信部28、タッチパネルディスプレイ14、マイクロフォン16、スピーカ18、カメラ20、及び操作ボタン22は、システムバス30を介して相互に電気的に接続されている。従って、制御部24は、記憶部26へのアクセス、タッチパネルディスプレイ14に対する画像の表示、ユーザーによるタッチパネルディスプレイ14や操作ボタン22に対する操作状態の把握、マイクロフォン16への音の入力、スピーカ18からの音の出力、カメラ20に対する制御、及び通信部28を介した各種通信網や他の情報処理装置へのアクセス等を行うことができる。 The control unit 24, the storage unit 26, the communication unit 28, the touch panel display 14, the microphone 16, the speaker 18, the camera 20, and the operation buttons 22 are electrically connected to each other via the system bus 30. Therefore, the control unit 24 accesses the storage unit 26, displays an image on the touch panel display 14, grasps the operation state of the touch panel display 14 and the operation buttons 22 by the user, inputs sound to the microphone 16, and sounds from the speaker 18. Output, control of the camera 20, access to various communication networks and other information processing devices via the communication unit 28, and the like.

(1−3.機能ブロック図)
図4は、本実施形態に係る判定機能に関する機能ブロック図である。
(1-3. Functional block diagram)
FIG. 4 is a functional block diagram relating to the determination function according to the present embodiment.

図4に示すように、制御部24は、撮影部31と、部位特定部32と、画像領域設定部33と、静止判定部34を含む。 As shown in FIG. 4, the control unit 24 includes a photographing unit 31, a site specifying unit 32, an image area setting unit 33, and a rest determination unit 34.

撮影部31は、ユーザーUの動作を撮影して複数のフレームを含む撮影データを取得する。部位特定部32は、取得された撮影データについて、静止判定の対象となるユーザーUの所定の部位を特定する。 The shooting unit 31 shoots the operation of the user U and acquires shooting data including a plurality of frames. The part identification unit 32 identifies a predetermined part of the user U to be determined to be stationary with respect to the acquired shooting data.

画像領域設定部33は、特定された所定の部位に対応づけられる画像領域を設定する。静止判定部34は、画像領域のフレーム間の差分に基づいて、特定された所定の部位が静止しているか否かを判定する。 The image area setting unit 33 sets an image area associated with the specified predetermined portion. The stillness determination unit 34 determines whether or not the specified predetermined portion is stationary based on the difference between the frames of the image area.

上述した制御部24が備える各機能構成は、記憶部26に記憶されているコンピュータプログラムによって実現される。また、コンピュータプログラムは、コンピュータ読み取り可能な非一時的な記録媒体に格納し、必要に応じて当該記録媒体から読み出してもよい。 Each functional configuration included in the control unit 24 described above is realized by a computer program stored in the storage unit 26. Further, the computer program may be stored in a non-temporary recording medium that can be read by a computer, and may be read from the recording medium as needed.

(1−4.判定処理の流れ)
図5を参照し、判定システム1を用いた静止判定の処理の流れを詳細に説明する。
(1-4. Flow of judgment processing)
With reference to FIG. 5, the flow of the static determination process using the determination system 1 will be described in detail.

ステップS110において、撮影部31は、ユーザーUの動作を撮影する。ここで、当該撮影がNフレーム/秒でT秒間行われた場合、撮影データに含まれるフレーム数Mは、N×Tで算出される。N,Tは正の実数であり、Mは自然数である。各フレームには静止画像が含まれる。Nは例えば60であり、Tは例えば5である。この場合、撮影データには、300枚(M=60×5=300)の静止画像が含まれることとなる。 In step S110, the photographing unit 31 photographs the operation of the user U. Here, when the shooting is performed at N frames / second for T seconds, the number of frames M included in the shooting data is calculated by N × T. N and T are positive real numbers and M is a natural number. Each frame contains a still image. N is, for example, 60 and T is, for example, 5. In this case, the shooting data includes 300 still images (M = 60 × 5 = 300).

ステップS120において、部位特定部32は、取得された撮影データについて、静止判定の対象となるユーザーUの部位の特定を行う。この特定は、一例として、撮影データを構成する各静止画像に対する二次元姿勢推定による姿勢モデルに基づいて行うことができる。 In step S120, the site identification unit 32 identifies the site of the user U, which is the target of the static determination, with respect to the acquired shooting data. As an example, this identification can be performed based on a posture model by two-dimensional posture estimation for each still image constituting the shooting data.

二次元姿勢推定では、例えば深層学習を用いたアルゴリズムによって、静止画像中のユーザーUの複数の特徴点の座標を推定することで、ユーザーUの姿勢を二次元的に推定することができる。さらに、複数の静止画像に対して二次元姿勢推定することで、ユーザーUの骨格の動きを計測することも可能となる。 In the two-dimensional posture estimation, the posture of the user U can be estimated two-dimensionally by estimating the coordinates of a plurality of feature points of the user U in the still image by, for example, an algorithm using deep learning. Further, by estimating the two-dimensional posture for a plurality of still images, it is possible to measure the movement of the skeleton of the user U.

図6に、複数の特徴点の配置例を示す。図6は、ユーザーUが右足で片足立ちをしている場合の画像を例示している。ここで、特徴点0〜14は、それぞれ、頭(0)、首(1)、右肩(2)、右肘(3)、右手(4)、左肩(5)、左肘(6)、左手(7)、腰(8)、右股関節(9)、右膝(10)、右足首(11)、左股関節(12)、左膝(13)、左足首(14)に対応する。 FIG. 6 shows an example of arranging a plurality of feature points. FIG. 6 illustrates an image when the user U is standing on one leg with his right foot. Here, the feature points 0 to 14 are the head (0), the neck (1), the right shoulder (2), the right elbow (3), the right hand (4), the left shoulder (5), the left elbow (6), respectively. It corresponds to the left hand (7), hip (8), right hip joint (9), right knee (10), right ankle (11), left hip joint (12), left knee (13), and left ankle (14).

このように、二次元姿勢推定によって各静止画像においてユーザーUの特徴点0〜14の座標を取得すると、これらの座標に基づいて、ユーザーの姿勢を推定することができる。なお、特徴点の数や配置は、本実施形態のものに限定されず、適宜変更可能である。 In this way, when the coordinates of the feature points 0 to 14 of the user U are acquired in each still image by the two-dimensional posture estimation, the user's posture can be estimated based on these coordinates. The number and arrangement of feature points are not limited to those of the present embodiment, and can be changed as appropriate.

このように、各撮影データを構成する各静止画像について二次元姿勢推定で得られた複数の特徴点の座標を、計測データとして取得することができる。ここで、撮影データがMフレームで構成される場合、その撮影データに対応する計測データもMフレームで構成される。 In this way, the coordinates of a plurality of feature points obtained by the two-dimensional posture estimation for each still image constituting each shooting data can be acquired as measurement data. Here, when the shooting data is composed of M frames, the measurement data corresponding to the shooting data is also composed of M frames.

部位特定部32は、取得した計測データ(すなわち、複数の特徴点の座標)に基づいて、ユーザーUの身体における所定の部位を特定する。ここで、部位特定部32は、ユーザーUの動作に応じて、特定すべき部位を変更してもよい。この場合、部位特定部32は、全ての特徴点について計測データを取得する必要はなく、ユーザーUが行う動作毎に特定すべき部位のみについて計測データの取得を行ってもよい。 The site specifying unit 32 identifies a predetermined site in the body of the user U based on the acquired measurement data (that is, the coordinates of a plurality of feature points). Here, the site specifying unit 32 may change the site to be specified according to the operation of the user U. In this case, the part specifying unit 32 does not need to acquire the measurement data for all the feature points, and may acquire the measurement data only for the part to be specified for each operation performed by the user U.

ステップS130において、画像領域設定部33は、特定された所定の部位に対応づけられる画像領域Dを設定する。画像領域Dの設定にあたり、ユーザーUの動作ごとに対応する特徴点が記憶部26に記憶されている。一例として、図7に示す右足で片足立ちをする動作については、上半身の部位である1〜7の特徴点が所定の部位として対応づけられている。そこで、画像領域設定部33は、記憶部26を参照し、特徴点1〜7を含む画像を画像領域Dとして設定する。また、画像領域設定部33は、例えば、特定すべき部位が上半身である場合、特徴点8(腰)よりも上側の画像を画像領域Dとして設定してもよい。 In step S130, the image area setting unit 33 sets the image area D associated with the specified predetermined portion. When setting the image area D, feature points corresponding to each operation of the user U are stored in the storage unit 26. As an example, in the motion of standing on one leg with the right foot shown in FIG. 7, the feature points 1 to 7 which are the parts of the upper body are associated as predetermined parts. Therefore, the image area setting unit 33 refers to the storage unit 26 and sets the image including the feature points 1 to 7 as the image area D. Further, for example, when the portion to be specified is the upper body, the image area setting unit 33 may set the image above the feature point 8 (waist) as the image area D.

また、図8に示す他の例では、ユーザーUが左腕を伸ばした場合が例示されている。このような場合に、左腕の位置を特徴点5〜7の座標位置から推定するために、特徴点5〜7を含む画像を画像領域Dとして設定してもよい。 Further, in another example shown in FIG. 8, a case where the user U extends his / her left arm is illustrated. In such a case, in order to estimate the position of the left arm from the coordinate positions of the feature points 5 to 7, an image including the feature points 5 to 7 may be set as the image area D.

ステップS140において、静止判定部34は、画像領域のフレーム間の差分に基づいて、特定された所定の部位が静止しているか否かを判定する。具体的には、静止判定部34は、取得された撮影データにおける連続する3つのフレームについて、画像領域に含まれる各ピクセルに対する階調値の差分を算出し、特定された所定の部位が静止しているか否かを判定する。 In step S140, the rest determination unit 34 determines whether or not the specified predetermined portion is stationary based on the difference between the frames of the image area. Specifically, the static determination unit 34 calculates the difference in gradation value for each pixel included in the image area for three consecutive frames in the acquired shooting data, and the specified predetermined portion is stationary. Determine if it is.

以下、図9を参照して具体的に説明する。図9には、取得された撮影データから選出された3つの連続する画像G1〜G3が示されている。なお、当該撮影データは、300枚の静止画像(M=300)で構成されているとし、始点フレームF1から終点フレームF300で構成される。画像G1〜G3は、それぞれ、フレームFn〜Fn+2(1≦n≦298)に対応する。 Hereinafter, a specific description will be given with reference to FIG. FIG. 9 shows three consecutive images G1 to G3 selected from the acquired shooting data. It is assumed that the shooting data is composed of 300 still images (M = 300), and is composed of a start point frame F1 to an end point frame F300. The images G1 to G3 correspond to frames Fn to Fn + 2 (1 ≦ n ≦ 298), respectively.

画像G1〜G3は、それぞれ、画像領域設定部33によって設定された画像領域D1〜D3を含む。ここで、画像領域D1〜D3は、複数のピクセルごとに0〜255までの階調値を有する。すなわち、以下の(式1)〜(式3)で表すことができる。 The images G1 to G3 include image areas D1 to D3 set by the image area setting unit 33, respectively. Here, the image areas D1 to D3 have gradation values from 0 to 255 for each of a plurality of pixels. That is, it can be expressed by the following (Equation 1) to (Equation 3).

Figure 2021043730
Figure 2021043730

Figure 2021043730
Figure 2021043730

Figure 2021043730
Figure 2021043730

ここで、D1(i,j)は、画像領域D1に含まれる各ピクセルを意味する。演算子「∋」は、取りうる値を意味する。静止判定部34は、フレームが連続する画像領域ごとの差分の絶対値を差分画像F12,F23として算出する。 Here, D1 (i, j) means each pixel included in the image area D1. The operator "∋" means a possible value. The static determination unit 34 calculates the absolute value of the difference for each image region in which the frames are continuous as the difference images F12 and F23.

Figure 2021043730
Figure 2021043730

Figure 2021043730
Figure 2021043730

次に、静止判定部34は、差分画像F12およびF23に対して、論理積を計算して論理積画像Faを算出する。 Next, the static determination unit 34 calculates the logical product of the difference images F12 and F23 to calculate the logical product image Fa.

Figure 2021043730
Figure 2021043730

ここで、演算子「∩」は、積集合を意味する。次に、静止判定部34は、任意の閾値Tと比較することにより二値化処理を行い、二値化された差分画像Ftを算出する。 Here, the operator "∩" means an intersection. Next, the static determination unit 34 performs binarization processing by comparing with an arbitrary threshold value T, and calculates the binarized difference image Ft.

Figure 2021043730
Figure 2021043730

上記処理により、画像領域D1〜D3において、静止していると判定された部分(ピクセル)は階調値が255となり、静止していないと判定されたピクセルは階調値が0となる。なお、閾値Tは、静止判定において求める精度に応じて適宜設定すればよい。 By the above processing, in the image areas D1 to D3, the gradation value is 255 for the portion (pixel) determined to be stationary, and the gradation value is 0 for the pixel determined not to be stationary. The threshold value T may be appropriately set according to the accuracy obtained in the static determination.

次に、差分画像Ftにおけるピクセル値の総和Fを算出し、静止判定の判定値Fvを算出する。 Next, the total sum F of the pixel values in the difference image Ft is calculated, and the determination value Fv of the static determination is calculated.

Figure 2021043730
Figure 2021043730

以上のようにして、フレームFn〜Fn+2(1≦n≦298)について、複数(本実施形態では298個)の判定値Fvが求まる。この判定値Fvに対して、所定の統計処理を行い、予め定められた閾値と比較することにより、静止判定が行われる。ここでの統計処理とは、例えば、単純和、加重和、又はこれに基づく値(単純平均、加重平均)などの統計的に求まる値を算出する処理である。 As described above, a plurality of (298 in this embodiment) determination values Fv can be obtained for the frames Fn to Fn + 2 (1 ≦ n ≦ 298). The static determination is performed by performing a predetermined statistical process on the determination value Fv and comparing it with a predetermined threshold value. The statistical processing here is a process of calculating a statistically obtained value such as a simple sum, a weighted sum, or a value based on the simple sum, a weighted sum, or a value based on the simple sum, a weighted average, or the like (simple average, weighted average).

以上のようにして、本実施形態に係る判定システム1は、撮影部31と、部位特定部32と、画像領域設定部33と、静止判定部34を備える。撮影部31は、ユーザーの動作を撮影して複数フレームを含む撮影データを取得する。部位特定部32は、取得された撮影データについて、ユーザーの身体における所定の部位を特定する。 As described above, the determination system 1 according to the present embodiment includes a photographing unit 31, a site specifying unit 32, an image area setting unit 33, and a rest determination unit 34. The shooting unit 31 captures the user's movements and acquires shooting data including a plurality of frames. The site identification unit 32 identifies a predetermined site in the user's body with respect to the acquired imaging data.

画像領域設定部33は、特定された所定の部位に対応づけられる画像領域を設定する。静止判定部34は、画像領域のフレーム間の差分に基づいて所定の部位が静止しているか否かを判定する。 The image area setting unit 33 sets an image area associated with the specified predetermined portion. The stillness determination unit 34 determines whether or not a predetermined portion is stationary based on the difference between the frames of the image area.

このような構成とすることにより、ユーザーの身体の特定の部位について、検出時のブレなどの影響を抑制することができ、静止判定を安定的に行うことが可能となる。 With such a configuration, it is possible to suppress the influence of blurring or the like at the time of detection on a specific part of the user's body, and it is possible to stably perform a stationary determination.

<2.第2実施形態>
図10を参照し、第2実施形態に係る判定システム1について説明する。第2実施形態に係る判定システム1は、携帯端末10としての親機10aおよび子機10bを含む点で第1実施形態と異なる。以下、第1実施形態との相違点を中心に説明する。
<2. Second Embodiment>
The determination system 1 according to the second embodiment will be described with reference to FIG. The determination system 1 according to the second embodiment is different from the first embodiment in that it includes a master unit 10a and a slave unit 10b as the mobile terminal 10. Hereinafter, the differences from the first embodiment will be mainly described.

図10に示すように、本実施形態においては、ユーザーUの右側、左側、後側に子機10bが配置される。子機10bは、親機10aと同様に、携帯端末10で構成される。親機10aと子機10bは、通信部28を通じて通信可能に構成されている。子機10bは、撮影部31として機能し、複数の方向からユーザーUの動作を撮影し、撮影データを複数取得する。 As shown in FIG. 10, in the present embodiment, the slave units 10b are arranged on the right side, the left side, and the rear side of the user U. The slave unit 10b is composed of the mobile terminal 10 like the master unit 10a. The master unit 10a and the slave unit 10b are configured to be able to communicate with each other through the communication unit 28. The slave unit 10b functions as a shooting unit 31, shoots the operation of the user U from a plurality of directions, and acquires a plurality of shooting data.

子機10bで取得された撮影データは、親機10aに対して送信される。親機10aの部位特定部32は、取得された複数の撮影データに対してそれぞれ所定の部位を特定する。 The shooting data acquired by the slave unit 10b is transmitted to the master unit 10a. The site specifying unit 32 of the master unit 10a identifies a predetermined site for each of the acquired plurality of captured data.

静止判定部34は、複数の方向から取得された撮影データに対して、ユーザーUに対する撮影方向に基づく重み付けを設定する。静止判定部34は、画像領域設定部33によって設定された画像領域のフレーム間の差分と、当該重み付けとに基づいて、ユーザーの所定の部位が静止しているか否かを判定する。 The stationary determination unit 34 sets weighting based on the shooting direction for the user U with respect to the shooting data acquired from a plurality of directions. The stillness determination unit 34 determines whether or not a predetermined portion of the user is stationary based on the difference between the frames of the image area set by the image area setting unit 33 and the weighting.

このような構成とすることにより、複数の撮影データに基づいてユーザーの身体が静止しているか否かを解析することとなり、より安定的に静止判定を行うことができる。 With such a configuration, it is possible to analyze whether or not the user's body is stationary based on a plurality of shooting data, and it is possible to perform a more stable stationary determination.

ここで、好ましくは、静止判定部34は、撮影するユーザーUの動作に応じて、撮影方向に基づく重み付けを設定してもよい。撮影方向に基づく重み付けは、特定された所定の部位に対応づけられて設定される。すなわち、ユーザーUの動作において、所定の部位ごとに動きが検知されやすい方向からの撮影データについて、重み付けを大きく設定することなどが考えられる。 Here, preferably, the stationary determination unit 34 may set the weighting based on the shooting direction according to the operation of the user U who shoots. The weighting based on the imaging direction is set in association with the specified predetermined portion. That is, in the operation of the user U, it is conceivable to set a large weighting for the shooting data from the direction in which the movement is easily detected for each predetermined part.

このような構成とすることにより、ユーザーの動作に応じて撮影方向に基づく重み付けを変化させることが可能となり、より安定的に静止判定を行うことができる。 With such a configuration, it is possible to change the weighting based on the shooting direction according to the movement of the user, and it is possible to perform the stillness determination more stably.

<3.その他の実施形態>
以上、実施形態について説明したが、本願の技術的範囲の適用範囲は、上記実施形態に限定されるものではない。
<3. Other embodiments>
Although the embodiments have been described above, the scope of application of the technical scope of the present application is not limited to the above embodiments.

たとえば、静止判定部34は、取得した撮影データに含まれる連続したLフレームの中から、静止判定の判定値に基づいて選択された3つのフレームを判定対象フレームとして選出する仕様としてもよい。 For example, the rest determination unit 34 may be specified to select three frames selected based on the determination value of the rest determination from the continuous L frames included in the acquired shooting data as the determination target frames.

この場合、静止判定部34は、たとえば、始点となるフレームが異なるP通りの連続する3つのフレーム(L=3)について静止判定の判定値を算出する。ここで、Pは自然数である。静止判定部34は、P通りの判定値をユーザーUの動きが小さい順に並べたときの順位がQ位以内であることであるフレームを判定対象フレームとして選出してもよい。なお、Lは3以外の値とすることもできる。 In this case, the static determination unit 34 calculates, for example, the static determination determination value for three consecutive frames (L = 3) in P ways in which the starting frame is different. Here, P is a natural number. The stationary determination unit 34 may select a frame in which the order in which the determination values according to P are arranged in ascending order of the movement of the user U is within the Q position is selected as the determination target frame. In addition, L can be a value other than 3.

例えば、P=90で、Q=10であれば、90通りの判定値Fvの中から値が小さい10個の判定値Fvを選出する。また、P=90で、Q=1であり、フレームF121から始まる連続する3つのフレーム(つまり、フレームF121〜F123)の判定値Fvが最小であれば、フレームF121〜F123が判定対象フレームとなる。なお、フレームF0を始点とする連続する3つのフレームについて判定値Fvを算出してもよいが、撮像開始直後のデータは信頼性が低い。つまり、計測データのうち最初の複数のフレームを除外して判定対象フレームを特定することによって判定の信頼性を高めてもよい。 For example, if P = 90 and Q = 10, 10 determination values Fv with smaller values are selected from 90 determination values Fv. Further, if P = 90, Q = 1, and the determination value Fv of three consecutive frames starting from the frame F121 (that is, frames F121 to F123) is the minimum, the frames F121 to F123 become the determination target frames. .. Although the determination value Fv may be calculated for three consecutive frames starting from the frame F0, the reliability of the data immediately after the start of imaging is low. That is, the reliability of the determination may be improved by excluding the first plurality of frames from the measurement data and specifying the determination target frame.

また、第2実施形態のように複数の方向から撮影する場合の評価対象フレームの選出にあたっては、重み付けが最も大きい撮影方向からの撮影データから、静止判定の判定値Fvを算出して判定対象フレームを選出してもよい。この場合、選出された判定対象フレームに対応する他の撮影方向のフレームの判定値Fvを算出し、各方向の判定値Fvに撮影方向に基づく重み付けを考慮して静止判定を行うこととなる。 Further, in selecting the evaluation target frame when shooting from a plurality of directions as in the second embodiment, the judgment target frame for static determination is calculated from the shooting data from the shooting direction having the largest weighting. May be elected. In this case, the determination value Fv of the frame in the other shooting direction corresponding to the selected determination target frame is calculated, and the static determination is performed in consideration of the weighting based on the photographing direction for the determination value Fv in each direction.

また、上記実施形態では、スマートフォンやタブレットなどの携帯端末10を用いて判定システム1を構成しているが、判定システム1を構成している装置の少なくとも1つは、通信可能で且つ撮影機能を有する任意の装置(例:Webカメラ)であってもよい。 Further, in the above embodiment, the determination system 1 is configured by using the mobile terminal 10 such as a smartphone or a tablet, but at least one of the devices constituting the determination system 1 is capable of communicating and has a shooting function. It may be any device (eg, Web camera) that it has.

さらに、本発明は、上述の判定システムを実現させるための携帯端末を機能させるプログラムとして実現することもできる。 Further, the present invention can also be realized as a program for operating a mobile terminal for realizing the above-mentioned determination system.

さらに、本発明は、上述のプログラムを格納する、コンピュータが読み取り可能な非一時的な記録媒体として実現することもできる。 Furthermore, the present invention can also be realized as a non-temporary recording medium that can be read by a computer and stores the above-mentioned program.

<4.実施形態の特徴>
以下、本発明の実施形態の特徴をまとめる。
<4. Features of the embodiment>
The features of the embodiments of the present invention are summarized below.

判定システム1は、撮影部31と、部位特定部32と、画像領域設定部33と、静止判定部34を備える。撮影部31は、ユーザーの動作を撮影して複数フレームを含む撮影データを取得する。部位特定部32は、取得された撮影データについて、ユーザーの身体における所定の部位を特定する。画像領域設定部33は、特定された所定の部位に対応づけられる画像領域を設定する。静止判定部34は、画像領域のフレーム間の差分に基づいて所定の部位が静止しているか否かを判定する。 The determination system 1 includes a photographing unit 31, a site specifying unit 32, an image area setting unit 33, and a rest determination unit 34. The shooting unit 31 captures the user's movements and acquires shooting data including a plurality of frames. The site identification unit 32 identifies a predetermined site in the user's body with respect to the acquired imaging data. The image area setting unit 33 sets an image area associated with the specified predetermined portion. The stillness determination unit 34 determines whether or not a predetermined portion is stationary based on the difference between the frames of the image area.

このような構成とすることにより、ユーザーの身体の特定の部位について、検出時のブレなどの影響を抑制することができ、静止判定を安定的に行うことが可能となる。 With such a configuration, it is possible to suppress the influence of blurring or the like at the time of detection on a specific part of the user's body, and it is possible to stably perform a stationary determination.

判定システム1の備える部位特定部32は、撮影データから推定される姿勢モデルに基づいて、ユーザーUの身体における所定の部位を特定してもよい。 The part specifying unit 32 included in the determination system 1 may specify a predetermined part in the body of the user U based on the posture model estimated from the shooting data.

このような構成とすることにより、ユーザーの身体における部位の特定を安定的に実現することができる。 With such a configuration, it is possible to stably identify a part of the user's body.

部位特定部32は、ユーザーUの動作に基づいて所定の部位を特定してもよい。 The site specifying unit 32 may specify a predetermined site based on the operation of the user U.

このような構成とすることにより、動作ごとに特定する部位を設定することとなり、より安定的に部位の特定を行うことができる。 With such a configuration, a part to be specified can be set for each operation, and the part can be specified more stably.

撮影データの複数フレームは、Mフレームで構成され、静止判定部34は、撮影データの中から始点となるフレームが異なるP通りの連続するLフレームに対して、フレーム間の差分に基づいて所定の部位の静止度合いについての判定値Fvを算出し、P通りの判定値Fvを所定の部位の動きが小さい順に並べたときの順位がQ位以内であるLフレームに基づいて、特定された所定の部位が静止しているか否かを判定してもよい。 The plurality of frames of the shooting data are composed of M frames, and the stationary determination unit 34 determines a predetermined number of continuous L frames in P ways having different starting points from the shooting data based on the difference between the frames. The determination value Fv for the degree of rest of the part is calculated, and the determination value Fv according to P is arranged in ascending order of the movement of the predetermined part, and the order is within the Q position. It may be determined whether or not the part is stationary.

このような構成とすることにより、静止判定の対象を絞り込むこととなり、より安定的に静止判定を行うことができる。 With such a configuration, the target of the stationary determination can be narrowed down, and the stationary determination can be performed more stably.

撮影部31は、複数の方向から前記ユーザーの動作を撮影して撮影データを複数取得し、部位特定部32は、取得された前記複数の撮影データに対してそれぞれ前記所定の部位を特定してもよい。 The photographing unit 31 photographs the user's movements from a plurality of directions to acquire a plurality of photographing data, and the site specifying unit 32 specifies the predetermined portion with respect to the acquired plurality of photographed data. May be good.

このような構成とすることにより、複数の撮影データを解析することとなり、より安定的に静止判定を行うことができる。 With such a configuration, a plurality of shooting data can be analyzed, and static determination can be performed more stably.

静止判定部34は、複数の撮影データに対して、ユーザーUに対する撮影方向に基づく重み付けを設定し、画像領域のフレーム間の差分と、撮影データの重み付けとに基づいて、所定の部位が静止しているか否かを判定してもよい。 The stillness determination unit 34 sets weighting for the user U based on the shooting direction for the plurality of shooting data, and the predetermined portion is stationary based on the difference between the frames of the image area and the weighting of the shooting data. It may be determined whether or not it is.

このような構成とすることにより、複数のデータに対して撮影方向での重み付けを行うこととなり、より安定的に静止判定を行うことができる。 With such a configuration, a plurality of data are weighted in the shooting direction, and the stillness determination can be performed more stably.

静止判定部34は、ユーザーUの動作に応じて、撮影方向に基づく重み付けを設定してもよい。 The stationary determination unit 34 may set the weighting based on the shooting direction according to the operation of the user U.

このような構成とすることにより、動作に応じて撮影方向の重み付けを変化させることとなり、より安定的に静止判定を行うことができる。 With such a configuration, the weighting in the shooting direction is changed according to the operation, and the stationary determination can be performed more stably.

本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although various embodiments according to the present invention have been described, they are presented as examples and are not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.

1 :判定システム
10 :携帯端末
10a :親機
10b :子機
11 :特徴点
12 :筐体
12A :正面
12B :側面
13 :特徴点
14 :タッチパネルディスプレイ
16 :マイクロフォン
18 :スピーカ
20 :カメラ
22 :操作ボタン
24 :制御部
26 :記憶部
28 :通信部
30 :システムバス
31 :撮影部
32 :部位特定部
33 :画像領域設定部
34 :静止判定部
U :ユーザー
1: Judgment system 10: Mobile terminal 10a: Master unit 10b: Slave unit 11: Feature point 12: Housing 12A: Front surface 12B: Side surface 13: Feature point 14: Touch panel display 16: Microphone 18: Speaker 20: Camera 22: Operation Button 24: Control unit 26: Storage unit 28: Communication unit 30: System bus 31: Imaging unit 32: Part identification unit 33: Image area setting unit 34: Stillness determination unit U: User

Claims (8)

ユーザーの身体が静止しているか否かを判定するシステムであって、
撮影部と、部位特定部と、画像領域設定部と、静止判定部を備え、
前記撮影部は、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、
前記部位特定部は、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、
前記画像領域設定部は、特定された前記所定の部位に対応づけられる画像領域を設定し、
前記静止判定部は、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定する、システム。
It is a system that determines whether the user's body is stationary.
It is equipped with a shooting unit, a part identification unit, an image area setting unit, and a stillness determination unit.
The shooting unit captures the movement of the user and acquires shooting data including a plurality of frames.
The site identification unit identifies a predetermined site in the user's body with respect to the acquired shooting data.
The image area setting unit sets an image area associated with the specified predetermined portion, and sets the image area.
The rest determination unit is a system that determines whether or not the predetermined portion is stationary based on the difference between the frames of the image region.
請求項1に記載のシステムであって、
前記部位特定部は、前記撮影データから推定される姿勢モデルに基づいて、前記ユーザーの身体における所定の部位を特定する、システム。
The system according to claim 1.
The site identification unit is a system that identifies a predetermined site in the user's body based on a posture model estimated from the imaging data.
請求項1または請求項2に記載のシステムであって、
前記部位特定部は、前記ユーザーの動作に基づいて所定の部位を特定する、システム。
The system according to claim 1 or 2.
The site specifying unit is a system that identifies a predetermined site based on the movement of the user.
請求項1〜請求項3のいずれか1項に記載のシステムであって、
前記撮影データの複数フレームは、Mフレームで構成され、
前記静止判定部は、
撮影データの中から始点となるフレームが異なるP通りの連続するLフレームに対して、フレーム間の差分に基づいて前記所定の部位の静止度合いについての判定値を算出し、
前記P通りの判定値を前記所定の部位の動きが小さい順に並べたときの順位がQ位以内であるLフレームに基づいて、特定された前記所定の部位が静止しているか否かを判定する、システム。
The system according to any one of claims 1 to 3.
The plurality of frames of the shooting data are composed of M frames.
The stationary determination unit
For continuous L frames in P ways with different starting frames from the shooting data, a judgment value for the degree of rest of the predetermined portion is calculated based on the difference between the frames.
It is determined whether or not the specified predetermined part is stationary based on the L frame in which the order of the determination values according to P is arranged in ascending order of the movement of the predetermined part within the Q position. ,system.
請求項1〜請求項4のいずれか1項に記載のシステムであって、
前記撮影部は、複数の方向から前記ユーザーの動作を撮影して撮影データを複数取得し、
前記部位特定部は、取得された前記複数の撮影データに対してそれぞれ前記所定の部位を特定する、システム。
The system according to any one of claims 1 to 4.
The shooting unit captures the user's movements from a plurality of directions and acquires a plurality of shooting data.
The site identification unit is a system that identifies the predetermined site with respect to the acquired plurality of imaging data.
請求項5に記載のシステムであって、
前記静止判定部は、
複数の前記撮影データに対して、前記ユーザーに対する撮影方向に基づく重み付けを設定し、
前記画像領域のフレーム間の差分と、前記撮影データの重み付けとに基づいて、前記所定の部位が静止しているか否かを判定する、システム。
The system according to claim 5.
The stationary determination unit
For the plurality of the shooting data, weighting based on the shooting direction for the user is set.
A system that determines whether or not the predetermined portion is stationary based on the difference between the frames of the image region and the weighting of the shooting data.
請求項6に記載のシステムであって、
前記静止判定部は、前記ユーザーの動作に応じて、前記撮影方向に基づく重み付けを設定する、システム。
The system according to claim 6.
The static determination unit is a system that sets weighting based on the shooting direction according to the operation of the user.
コンピュータに、撮影ステップと、部位特定ステップと、画像領域設定ステップと、静止判定ステップを備える、ユーザーの身体が静止しているか否かの判定方法を実行させるコンピュータプログラムであって、
前記撮影ステップでは、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、
前記部位特定ステップでは、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、
前記画像領域設定ステップでは、特定された前記所定の部位に対応づけられる画像領域を設定し、
前記静止判定ステップでは、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定する、コンピュータプログラム。
A computer program that causes a computer to execute a method for determining whether or not a user's body is stationary, which includes a shooting step, a site identification step, an image area setting step, and a rest determination step.
In the shooting step, the movement of the user is shot to acquire shooting data including a plurality of frames, and the shooting data is acquired.
In the site identification step, a predetermined site in the user's body is identified with respect to the acquired imaging data.
In the image area setting step, an image area associated with the specified predetermined portion is set.
In the rest determination step, a computer program that determines whether or not the predetermined portion is stationary based on the difference between the frames of the image area.
JP2019165678A 2019-09-11 2019-09-11 Stationary determination system and computer program Active JP7397282B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019165678A JP7397282B2 (en) 2019-09-11 2019-09-11 Stationary determination system and computer program
JP2023197608A JP2024015004A (en) 2019-09-11 2023-11-21 Stationary determining system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165678A JP7397282B2 (en) 2019-09-11 2019-09-11 Stationary determination system and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023197608A Division JP2024015004A (en) 2019-09-11 2023-11-21 Stationary determining system, and computer program

Publications (2)

Publication Number Publication Date
JP2021043730A true JP2021043730A (en) 2021-03-18
JP7397282B2 JP7397282B2 (en) 2023-12-13

Family

ID=74862403

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019165678A Active JP7397282B2 (en) 2019-09-11 2019-09-11 Stationary determination system and computer program
JP2023197608A Pending JP2024015004A (en) 2019-09-11 2023-11-21 Stationary determining system, and computer program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023197608A Pending JP2024015004A (en) 2019-09-11 2023-11-21 Stationary determining system, and computer program

Country Status (1)

Country Link
JP (2) JP7397282B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056861A (en) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded
JP2012098988A (en) * 2010-11-04 2012-05-24 Sony Corp Image processing apparatus and method, and program
WO2012147961A1 (en) * 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
JP2015170206A (en) * 2014-03-07 2015-09-28 富士通株式会社 detection device and detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056861A (en) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded
JP2012098988A (en) * 2010-11-04 2012-05-24 Sony Corp Image processing apparatus and method, and program
WO2012147961A1 (en) * 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
JP2015170206A (en) * 2014-03-07 2015-09-28 富士通株式会社 detection device and detection method

Also Published As

Publication number Publication date
JP7397282B2 (en) 2023-12-13
JP2024015004A (en) 2024-02-01

Similar Documents

Publication Publication Date Title
US9928411B2 (en) Image processing apparatus, image processing system, image processing method, and computer program product
Siena et al. Utilising the intel realsense camera for measuring health outcomes in clinical research
JP5786463B2 (en) Image processing apparatus, image processing method, and program
US20170213385A1 (en) Apparatus and method for generating 3d face model using mobile device
WO2014016987A1 (en) Three-dimensional user-interface device, and three-dimensional operation method
JP2012253483A (en) Image processing apparatus, image processing method, and program
KR101118654B1 (en) rehabilitation device using motion analysis based on motion capture and method thereof
JP5613741B2 (en) Image processing apparatus, method, and program
JP6002058B2 (en) Image processing apparatus, method, and program
JP6008025B2 (en) Image processing apparatus, image processing method, and program
EP2894851B1 (en) Image processing device, image processing method, program, and computer-readable storage medium
JP2016101229A (en) Gait analysis system and gait analysis program
CN110738548B (en) Virtual fitting method and device, mobile terminal and computer readable storage medium
JP5876121B2 (en) Image processing apparatus, method, and program
JP7397282B2 (en) Stationary determination system and computer program
JP2020092944A (en) User operation evaluation system and computer program
JP2021096537A (en) Biological information acquisition device, terminal device, biological information acquisition method, biological information acquisition program, and computer readable recording medium
JP6661882B2 (en) Information processing apparatus, tremor information display method, information processing system, and program
JP2020149565A (en) Image processing system, image processing method and program
TWI819512B (en) Information processing devices, information processing methods and information processing programs
JP7323234B2 (en) Guide method
JP7390891B2 (en) Client device, server, program, and information processing method
WO2020240989A1 (en) Imaging device, imaging control method, and imaging control program
JP2023137370A (en) Display method and display system
JP2020092945A (en) User operation evaluation system and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7397282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150