JP7353438B2 - Video image judgment method - Google Patents

Video image judgment method Download PDF

Info

Publication number
JP7353438B2
JP7353438B2 JP2022124096A JP2022124096A JP7353438B2 JP 7353438 B2 JP7353438 B2 JP 7353438B2 JP 2022124096 A JP2022124096 A JP 2022124096A JP 2022124096 A JP2022124096 A JP 2022124096A JP 7353438 B2 JP7353438 B2 JP 7353438B2
Authority
JP
Japan
Prior art keywords
walking
video
determination
determining
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022124096A
Other languages
Japanese (ja)
Other versions
JP2023027012A5 (en
JP2023027012A (en
Inventor
真行 湊崎
春菜 平賀
加奈子 瀬尾
元喜 須藤
優子 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to PCT/JP2022/030425 priority Critical patent/WO2023022072A1/en
Priority to CN202280055915.5A priority patent/CN117813047A/en
Priority to TW111130558A priority patent/TW202318336A/en
Publication of JP2023027012A publication Critical patent/JP2023027012A/en
Publication of JP2023027012A5 publication Critical patent/JP2023027012A5/ja
Application granted granted Critical
Publication of JP7353438B2 publication Critical patent/JP7353438B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Description

本発明は、歩行する被験者が撮影された動画像が歩行解析条件を満たすかを判定する動画像判定方法に関する。 The present invention relates to a video image determination method for determining whether a video image of a walking subject satisfies gait analysis conditions.

事前に撮影された動画像内の動作者の動画像と、撮影した利用者の動画像とを比較し、動作内容にどの程度の差があるかを評価する技術がある(例えば、特許文献1)。 There is a technology that compares a moving image of the user in a moving image shot in advance with a captured moving image of the user and evaluates the degree of difference in the content of the action (for example, Patent Document 1 ).

特開2010-258613号公報Japanese Patent Application Publication No. 2010-258613

特許文献1の場合、撮影した利用者の動画像が撮影された条件については判定していないため、例えば、利用者の動画像自体の撮影条件が悪く、比較評価に値しないデータについても動作者の動画像との比較を行うこととなっていた。 In the case of Patent Document 1, since the conditions under which the user's video image was taken are not determined, for example, the operator may also judge data that is not worthy of comparative evaluation due to poor shooting conditions of the user's video image itself. It was decided that a comparison would be made with the video images.

本発明は上記の課題に鑑みてなされたものであり、動画像を取得し、取得した動画像が歩行解析条件を満たすかを判定する技術に関する。 The present invention has been made in view of the above problems, and relates to a technique for acquiring a moving image and determining whether the acquired moving image satisfies walking analysis conditions.

本発明は、歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能であることを判定するための歩行解析条件を満たすかを判定する動画像判定方法であって、前記動画像を取得する動画取得工程と、取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定工程と、を含み、前記動画像は複数フレームで構成され、前記歩行動画判定工程は、前記動画取得工程によって全フレームを取得した後、または、取得したフレーム毎に判定を行うことを特徴とする動画像判定方法に関する。 The present invention satisfies a gait analysis condition for determining whether gait analysis is possible, such that a moving image of a walking subject is photographed, and includes at least one of a predetermined walking condition or a predetermined photographing condition. A moving image determining method for determining whether the moving image The present invention relates to a moving image determining method in which the image is composed of a plurality of frames, and the walking moving image determining step performs the determination after all frames are acquired in the moving image acquiring step or for each acquired frame.

本発明により提供される方法によれば、取得した歩行する被験者が撮影された動画像が歩行解析条件を満たすかを判定することで、歩行解析条件を満たした動画像のみを歩行解析の対象とすることもできるため、処理を軽減できる。 According to the method provided by the present invention, by determining whether the acquired moving image of a walking subject satisfies the gait analysis conditions, only the moving images that satisfy the gait analysis conditions are targeted for gait analysis. It is also possible to reduce the amount of processing required.

動画像判定方法を示すフローチャートである。3 is a flowchart showing a moving image determination method. 判定工程の詳細を示すフローチャートである。It is a flowchart showing details of a determination process. 判定工程の詳細を示すフローチャートである。It is a flowchart showing details of a determination process. 抽出する骨格点および重心を示す図である。FIG. 3 is a diagram showing skeleton points and centroids to be extracted. 被験者の顔の位置を推定する説明図である。FIG. 3 is an explanatory diagram for estimating the position of a subject's face. (a)は、歩行解析結果を示すグラフに動画像の判定結果に基づく総合得点を含めた画面イメージ図、(b)は動画像の判定条件毎の判定結果を示す画面イメージ図である。(a) is a screen image diagram in which a graph showing a gait analysis result includes a total score based on the determination result of a moving image, and (b) is a screen image diagram showing determination results for each determination condition of a moving image. 携帯端末100の概念図である。1 is a conceptual diagram of a mobile terminal 100. FIG. (a)は携帯端末100の表示装置の画面イメージ図、(b)は携帯端末100の表示装置の画面イメージ図(他の例)である。(a) is a screen image diagram of the display device of the mobile terminal 100, and (b) is a screen image diagram (another example) of the display device of the mobile terminal 100. 動画取得工程に歩行路ガイド工程および被験者マスク工程を付加したフローチャートである。It is a flowchart in which a walking path guide process and a subject mask process are added to the video acquisition process. (a)は歩行路ガイド表示の画面イメージ図(撮影範囲に被験者がいない場合)、(b)は歩行路ガイド表示の画面イメージ図(撮影範囲に被験者がいる場合)、(c)は歩行路ガイド表示の画面イメージ図(撮影中の場合)、(d)は歩行路ガイド表示の画面イメージ図(被験者と撮影装置との位置が適切でない場合)である。(a) is a screen image of the walking route guide display (when there is no subject in the shooting range), (b) is a screen image of the walking route guide display (when there is a subject in the shooting range), (c) is the walking route guide display (d) is a screen image of the walking path guide display (when the position of the subject and the imaging device is not appropriate). (a)は被験者マスク表示の画面イメージ図(被験者が所定範囲内にいない場合)、(b)は被験者マスク表示の画面イメージ図(被験者が所定範囲内にいる場合)である。(a) is a screen image diagram of the subject mask display (when the subject is not within the predetermined range), and (b) is a screen image diagram of the subject mask display (when the subject is within the predetermined range).

以下、本発明の実施形態について説明する。
はじめに、本実施形態の概要について説明する。
本実施形態の動画像判定方法(以下、本方法と表示する場合がある)は、歩行する被験者が撮影された動画像が歩行解析条件を満たすか判定する方法である。本方法は、歩行する被験者が撮影された動画像を解析し、当該被験者の歩行態様などを解析する際に、動画像が歩行解析条件を満たすか否かを判定することで、歩行解析条件を満たす動画像のみ被験者の歩行態様などを解析対象とすることにもできるため、歩行解析条件を満たさない動画像に対する解析を行う必要がなくなり、処理負荷を軽減することが可能となる。
本方法は、動画取得工程および歩行動画判定工程を含む。動画取得工程は、歩行する被験者が撮影された動画像データを取得する工程である。歩行動画判定工程は、取得した動画像データは、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能であることを判定するための歩行解析条件を満たすか判定する工程である。本方法で判定する動画像は、複数フレームで構成され、歩行動画判定工程は、動画取得工程によって全フレームを取得した後、または、取得したフレーム毎に判定を行う。
Embodiments of the present invention will be described below.
First, an overview of this embodiment will be explained.
The moving image determination method (hereinafter sometimes referred to as the present method) of the present embodiment is a method for determining whether a moving image of a walking subject satisfies gait analysis conditions. This method analyzes a moving image taken of a walking subject and determines whether the moving image satisfies the gait analysis conditions when analyzing the gait manner of the subject. Since it is possible to analyze only the moving images that satisfy the walking condition of the subject, it is not necessary to analyze the moving images that do not satisfy the walking analysis conditions, and it is possible to reduce the processing load.
This method includes a video acquisition step and a walking video determination step. The moving image acquisition step is a step of acquiring moving image data in which a walking subject is photographed. The walking video determination step determines whether the acquired video data satisfies gait analysis conditions for determining that gait analysis is possible, which consists of at least one of predetermined walking conditions or predetermined shooting conditions. This is the process of The moving image determined by this method is composed of a plurality of frames, and in the walking moving image determining step, the determination is performed after all frames are acquired in the moving image acquiring step, or for each acquired frame.

以下、本方法について詳細に説明する。
歩行する被験者とは、乳幼児、幼児、児童などいわゆる子供から成人に至るまで年齢は問わない。ただし、歩行していることを解析条件としているため、自立して歩行が行えない乳幼児や高齢者は該当しない。
撮影された動画像とは、どのような場所で撮影されたものでもよく、歩行測定を行う実験室に限らず、日常生活において撮影された動画像も該当する。どのような撮影装置で撮影されたものでもよく、デジタルカメラ、ビデオカメラの他、一般的に移動端末と称される携帯電話、タブレット端末、PDA、モバイルパーソナルコンピュータが備える撮影装置やパーソナルコンピュータが備える撮影装置で撮影された動画像が対象となる。どのような撮影者が撮影したものでもよい。動画像データは複数フレームで構成されたデータである。
歩行解析条件とは、取得した動画像データに撮影されている歩行する被験者の歩行態様を解析する際に必要な所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能であることを判定するための条件である。所定の歩行条件には、被験者が所定歩数以上歩行しているか、被験者の歩行速度、所定の範囲内を歩行しているか(左右の揺れが所定範囲を超えていないか)、被験者の顔は正面を向いているか、被験者の両手の位置は所定範囲内かなどが含まれる。所定の撮影条件には、骨格データを取得可能に撮影されているか、全身が撮影されているか、撮影装置と被験者との距離は所定範囲内、所定歩数以上撮影されているかなどが含まれる。
歩行解析が可能であることを判定するための歩行解析条件を満たすかを判定するとは、歩行解析条件を満たさなければ所定の歩行解析が可能でないこと(行えないこと)に限らず、所定の歩行解析は行えるが(所定の歩行解析の処理は実行できるが)、所定の歩行解析結果(所定精度の歩行解析結果)が得られないかを判定することも含む。詳細は後述するが、具体的には本方法によって判定する所定の歩行条件または所定の撮影条件には、条件を満たさなかった動画像データでは所定の歩行解析を行えない条件もあれば、条件を満たさなかった動画像データでも、例えば精度を犠牲にすることで、所定の歩行解析を行える条件もある。言い方を変えると、歩行解析が可能であると判定されなかった動画像データには、所定の歩行解析結果(所定精度の歩行解析結果)は得られない可能性が高いが、所定の歩行解析は行えるものが含まれている。所定の歩行解析を行うのに必要な条件を満たさなかった動画像データは所定の歩行解析には用いることはできないが、所定の歩行条件または所定の撮影条件を満たさなくても所定の歩行解析を行える動画像データについては所定の歩行解析を行い、歩行解析結果にどのような所定の歩行条件または所定の撮影条件を満たしたもしくは満たさなかった動画像データであるかの情報を含めるようにしてもよい。また、歩行解析条件を判定する際には、所定の歩行条件または所定の撮影条件が複数ある場合は、条件の判定順に優先順位をつけて行っても良い。優先順位をつけることで、処理負荷を抑えることが可能となる。
動画像を取得するとは、撮影装置で撮影されたデータを逐次入手するものや過去に撮影されたデータをネットワーク経由または所定の媒体を経由して入手するものや所定のサーバに記憶されている動画像データにアクセスすることで取得するものなどが含まれる。
歩行動画判定工程は、動画取得工程によって撮影装置で撮影されたデータを逐次入手し、取得したフレーム毎に判定を行ってもよいし、過去に撮影されたデータについて全フレーム取得した後に判定してもよい。
This method will be explained in detail below.
The walking subjects may be of any age, from children such as infants, toddlers, and children to adults. However, since the analysis condition is that they are walking, infants and elderly people who cannot walk independently are not applicable.
The photographed moving image may be one taken at any location, and is not limited to a laboratory where gait measurement is performed, but also includes a moving image taken in daily life. The photograph may be taken with any photographic device, and in addition to digital cameras and video cameras, photographic devices and personal computers equipped with mobile phones, tablet terminals, PDAs, and mobile personal computers, which are generally referred to as mobile terminals, may be used. The target is a moving image taken with a photographing device. It can be taken by any photographer. The moving image data is data composed of multiple frames.
Gait analysis conditions are defined as at least one of predetermined gait conditions or predetermined imaging conditions necessary for analyzing the gait behavior of a walking subject photographed in the acquired video image data. This is a condition for determining that it is possible. The predetermined walking conditions include whether the subject is walking a predetermined number of steps or more, the subject's walking speed, whether the subject is walking within a predetermined range (does the left/right sway exceed a predetermined range), and whether the subject's face is facing forward? These include whether the subject is facing the subject, and whether the subject's hands are within a predetermined range. The predetermined photographing conditions include whether the photograph is taken so that skeletal data can be obtained, whether the whole body is photographed, whether the distance between the photographing device and the subject is within a predetermined range, and whether the photograph is taken over a predetermined number of steps.
Determining whether the gait analysis conditions for determining whether gait analysis is possible is not limited to the fact that a given gait analysis is not possible (or impossible) unless the gait analysis conditions are met; Although analysis can be performed (predetermined gait analysis processing can be executed), it also includes determining whether a predetermined gait analysis result (gait analysis result with a predetermined accuracy) cannot be obtained. The details will be described later, but specifically, among the predetermined walking conditions or predetermined shooting conditions determined by this method, there are some conditions in which the predetermined gait analysis cannot be performed with video data that does not satisfy the conditions, and Even if the video data does not satisfy certain conditions, it is possible to perform a predetermined gait analysis, for example by sacrificing accuracy. In other words, there is a high possibility that a prescribed gait analysis result (a gait analysis result with a predetermined accuracy) cannot be obtained for video data that has not been determined to be capable of gait analysis. Contains things you can do. Video data that does not meet the conditions necessary for performing a prescribed gait analysis cannot be used for the prescribed gait analysis, but it is possible to perform a prescribed gait analysis even if the prescribed gait conditions or photography conditions are not met. For video data that can be processed, a predetermined gait analysis is performed, and the gait analysis results include information on which predetermined walking conditions or predetermined shooting conditions the video data satisfies or does not satisfy. good. Furthermore, when determining walking analysis conditions, if there are a plurality of predetermined walking conditions or predetermined photographing conditions, priority may be given in the order in which the conditions are determined. By prioritizing, it is possible to reduce the processing load.
Obtaining moving images refers to obtaining data shot by a shooting device one after another, obtaining data shot in the past via a network or a predetermined medium, and moving images stored on a predetermined server. This includes things obtained by accessing image data.
In the walking video determination step, the data captured by the imaging device may be sequentially obtained in the video acquisition step, and the determination may be performed for each acquired frame, or the determination may be performed after all frames of previously captured data have been acquired. Good too.

本方法の処理の流れを図1に用いて説明する。図1に示すフローチャートは、本方法によって処理される動画像判定アプリケーションソフトのフローチャートでもある。
工程(ステップS100)は、歩行する被験者が撮影された動画像を取得する動画取得工程である。
The processing flow of this method will be explained using FIG. 1. The flowchart shown in FIG. 1 is also a flowchart of the moving image determination application software processed by this method.
The process (step S100) is a video acquisition process of acquiring a video image of a walking subject.

工程(ステップS110)は、取得した動画像が所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能であることを判定するための歩行解析条件を満たすか判定する歩行動画判定工程である。歩行動画判定工程の詳細を図2-1、図2-2に示す。歩行動画判定工程は1フレーム単位で判定を行う。1フレーム単位で判定を行うとは、本実施形態では、動画像を構成するフレーム数がn個の場合、1個のフレームに対し図2-1、図2-2に示すステップS111~ステップS130まで行い、その処理をn個分繰り返すこととするが、図2-1、図2-2に示す1ステップをn個分行った後、次のステップへ進むようにしてもよい。 The process (step S110) determines whether the acquired moving image satisfies a gait analysis condition for determining that gait analysis is possible, which is composed of at least one of a predetermined walking condition or a predetermined shooting condition. This is a walking video determination process. Details of the walking video determination process are shown in Figures 2-1 and 2-2. In the walking video determination step, determination is performed on a frame-by-frame basis. In this embodiment, when the number of frames constituting a moving image is n, the determination is made in units of one frame, and the steps S111 to S130 shown in FIGS. 2-1 and 2-2 are performed for each frame. Although the steps shown in FIGS. 2-1 and 2-2 are performed for n times, the process may be repeated for n times before proceeding to the next step.

本実施形態では、機械学習により得られた骨格点学習モデルを用いて、取得した動画像から被験者の骨格点を抽出することで被験者を特定し、当該被験者の歩行解析を行うことする。本実施形態では、公知の骨格点抽出技術、例えば、OpenPose(URL=https://github.com/CMU-Perceptual-Computing-Lab/openpose)やVisionPose(URL=https://www.next-system.com/visionpose)などを用いて抽出する。
工程(ステップS111)は、取得した動画像から3次元骨格点の抽出を行う。動画像に複数の被験者が含まれる場合は、被験者単位に3次元骨格点の抽出を行う。動画像から抽出する3次元骨格点について図3に示す。
本実施形態では、図3に示した16箇所の骨格点および重心を抽出する。重心は歩行解析で用いるため、骨格点の抽出と合わせて行うが同時に行わなくてもよい。重心は抽出された骨格点から算出してもよい。本実施形態では16箇所の骨格点を抽出したが、抽出する骨格点の数はこれに限らない。
なお、工程(ステップS111)は、骨格点抽出工程に相当する。
In this embodiment, a skeletal point learning model obtained by machine learning is used to identify a subject by extracting the skeletal points of the subject from an acquired video image, and perform a gait analysis of the subject. In this embodiment, we use known skeletal point extraction techniques such as OpenPose (URL=https://github.com/CMU-Perceptual-Computing-Lab/openpose) and VisionPose (URL=https://www.next-system Extract using .com/visionpose) etc.
In the step (step S111), three-dimensional skeleton points are extracted from the acquired moving image. When a moving image includes multiple subjects, three-dimensional skeleton points are extracted for each subject. FIG. 3 shows three-dimensional skeleton points extracted from a moving image.
In this embodiment, the 16 skeleton points and centroids shown in FIG. 3 are extracted. Since the center of gravity is used in gait analysis, it is performed together with the extraction of skeletal points, but it does not have to be performed at the same time. The center of gravity may be calculated from the extracted skeleton points. Although 16 skeleton points are extracted in this embodiment, the number of skeleton points to be extracted is not limited to this.
Note that the process (step S111) corresponds to a skeleton point extraction process.

工程(ステップS112)は、ステップS111で抽出した骨格点および重心が1被験者に対し歩行解析条件を満たすか判定する。ステップS112での歩行解析条件は所定の撮影条件の1つであり、本実施形態では1被験者に対し所定個数(本実施形態では16箇所)の骨格点および重心を抽出できたフレームがあることである。歩行解析条件を満たすと判定された場合はステップS113へ進み、歩行解析条件を満たさないと判定された場合は本処理を終了する。1被験者に対し所定数の骨格点および重心が抽出されない場合は、歩行解析に適した動画像の明瞭度や画素数を持っていないと考えられ、歩行解析を行えない、または、行ったとしても正確な解析が行えないため、この後に続く処理は行わない。
なお、工程(ステップS112)は、骨格点判定工程に相当する。
In the process (step S112), it is determined whether the skeletal points and the center of gravity extracted in step S111 satisfy the gait analysis conditions for one subject. The gait analysis condition in step S112 is one of the predetermined imaging conditions, and in this embodiment, there is a frame from which a predetermined number (16 in this embodiment) of skeletal points and centers of gravity can be extracted for one subject. be. If it is determined that the gait analysis conditions are satisfied, the process advances to step S113, and if it is determined that the gait analysis conditions are not satisfied, this process is ended. If a predetermined number of skeletal points and center of gravity are not extracted for a single subject, it is considered that the video image does not have the clarity or number of pixels suitable for gait analysis, and gait analysis cannot be performed, or even if it is performed. Since accurate analysis cannot be performed, subsequent processing is not performed.
Note that the step (step S112) corresponds to a skeleton point determination step.

工程(ステップS113)は、被験者の全身が撮影されているかを判定する。本実施形態では、骨格点同士が予め決められた位置関係にある場合に被験者の全身が撮影されていると判定する。ステップS112で抽出された骨格点同士が予め決められた位置関係にあるかを判定し、予め決められた位置関係にあると判定された場合はステップS114へ進み、予め決められた位置関係にあると判定されなかった場合は本処理を終了する。骨格点同士が予め決められた位置関係にあるとは、例えば、頭頂を示す骨格点は抽出された骨格点の中で、図3に示すX座標の最も大きい値にある、左右肩峰(肩)を示す骨格点は足首を示す骨格点よりX座標の大きい値にあるなど予め決められた骨格点同士の位置関係に各骨格点が位置することである。抽出された骨格点が予め決められた位置関係にない場合、動画像は歩行解析を行えない、または、行ったとしても正確な解析が行えないため、この後に続く処理は行わない。抽出された骨格点が予め決められた位置関係にあるフレームのみこの後に続く処理を行う。
なお、工程(ステップS113)は、全身判定工程に相当する。
In the process (step S113), it is determined whether the subject's whole body is being photographed. In this embodiment, it is determined that the subject's whole body is being imaged when the skeletal points have a predetermined positional relationship. It is determined whether the skeleton points extracted in step S112 are in a predetermined positional relationship, and if it is determined that they are in a predetermined positional relationship, the process proceeds to step S114, and the skeleton points are in a predetermined positional relationship. If it is not determined that this is the case, this process ends. When skeletal points are in a predetermined positional relationship, for example, a skeletal point indicating the top of the head is located at the left and right acromion (acromion) at the largest value of the X coordinate shown in Figure 3 among the extracted skeletal points. ) is located in a predetermined positional relationship between the skeletal points, such as the skeletal point indicating the ankle having a larger value of the X coordinate than the skeletal point indicating the ankle. If the extracted skeletal points do not have a predetermined positional relationship, the moving image cannot be subjected to gait analysis, or even if it is performed, the analysis cannot be performed accurately, so the subsequent processing is not performed. Only frames in which the extracted skeleton points have a predetermined positional relationship are subjected to the subsequent processing.
Note that the step (step S113) corresponds to a whole body determination step.

工程(ステップS114)は、撮影装置に対して被験者が所定範囲内で撮影されたフレームがあるかを判定する工程である。撮影装置と被験者との距離が近いほど、骨格点抽出の精度がよくなるため、撮影装置と被験者とが所定範囲以上の位置で撮影された動画像の場合、歩行解析に適した動画像ではない可能性が高いため本判定を行う。本判定は必須の判定条件である。
本工程では、被験者の人体寸法を取得し、取得した人体寸法に対応する部位の動画像における長さ(例えば、動画像におけるピクセル数)と動画像の撮影位置と被験者の位置との奥行き方向の距離(図3のY軸方向の距離)との比率を計算し、この比率と被験者から取得した人体寸法の実際の長さとを用いて奥行寸法の実際の長さを推定し、推定結果が歩行解析条件を満たすか判定する。人体寸法とは、人体各部位の寸法のことをいい、具体的には、身長、眼高、肩峰高、前方腕長、肩幅、重心高、膝関節高などがある。人体寸法は、上記に例示されるもののうち一つまたは複数を選択してもよい。複数の人体寸法を選択した場合、上記の比率を人体寸法ごとにそれぞれ計算したうえで、上記の奥行き寸法の実際の長さの推定値の平均値を算出して推定結果としてもよい。また、人体寸法は動画像に写り込んでいる被験者の身体に応じて選択してもよい。例えば、被験者の足元が動画像に十分に写り込んでいない場合は、足元位置を用いずに人体寸法(動画像におけるピクセル数)を求めることが可能な前方腕長や肩幅を選択するとよい。人体寸法を用いることに代えて、後述するように光の反射を活用し、光学的に動画像の撮影位置と被験者の位置との奥行き方向の距離(図3のY軸方向の距離)を推定し、推定結果が歩行解析条件を満たすか判定してもよい。ステップS114での歩行解析条件は所定の撮影条件の1つであり、動画像の撮影位置と被験者の位置との距離が1~7mで撮影された動画像のフレームであることである。歩行解析条件を満たすと判定された場合はステップS116へ進み、歩行解析条件を満たさないと判定された場合はステップS115へ進む。
なお、工程(ステップS114)は、骨格点判定工程、人体寸法工程および距離推定工程に相当する。
The step (step S114) is a step of determining whether there is a frame in which the subject is photographed within a predetermined range with respect to the photographing device. The closer the distance between the imaging device and the subject, the better the accuracy of skeletal point extraction, so if the video image is taken at a position where the imaging device and the subject are within a predetermined range, it may not be suitable for gait analysis. This judgment is made because the quality is high. This judgment is an essential judgment condition.
In this step, the human body dimensions of the subject are acquired, and the length in the video image of the body part corresponding to the acquired human body dimensions (e.g., the number of pixels in the video image) and the depth direction between the shooting position of the video image and the position of the subject are calculated. The ratio with the distance (distance in the Y-axis direction in Figure 3) is calculated, and the actual length of the depth dimension is estimated using this ratio and the actual length of the human body dimension obtained from the subject, and the estimation result is Determine whether the analysis conditions are met. Human body dimensions refer to the dimensions of each part of the human body, and specifically include height, eye height, acromion height, front arm length, shoulder width, center of gravity height, knee joint height, etc. The human body dimensions may be selected from one or more of those exemplified above. When a plurality of human body dimensions are selected, the above-mentioned ratio may be calculated for each human body dimension, and then the average value of the estimated values of the actual lengths of the above-mentioned depth dimensions may be calculated as the estimation result. Further, the human body size may be selected depending on the body of the subject reflected in the moving image. For example, if the subject's feet are not sufficiently reflected in the video image, it is preferable to select front arm length and shoulder width that allow the human body dimensions (the number of pixels in the video image) to be determined without using the foot position. Instead of using human body dimensions, the distance in the depth direction (the distance in the Y-axis direction in Figure 3) between the shooting position of the moving image and the subject's position is optically estimated by utilizing light reflection as described later. However, it may be determined whether the estimation result satisfies the gait analysis conditions. The gait analysis condition in step S114 is one of the predetermined shooting conditions, and is that the frame of the moving image is shot at a distance of 1 to 7 meters between the shooting position of the moving image and the position of the subject. If it is determined that the gait analysis conditions are satisfied, the process proceeds to step S116, and if it is determined that the gait analysis conditions are not satisfied, the process proceeds to step S115.
Note that the process (step S114) corresponds to a skeletal point determination process, a human body size process, and a distance estimation process.

工程(ステップS115)は、ステップS114で、歩行解析条件を満たさないと判定された場合に行う工程である。本工程では、ステップS114での判定結果として、動画像の撮影位置と被験者の位置との距離が1~7mで撮影された動画像のフレームではない旨の結果を登録し、ステップS116へ進む。 The process (step S115) is a process performed when it is determined in step S114 that the walking analysis conditions are not satisfied. In this step, as the determination result in step S114, a result indicating that the frame is not a moving image shot at a distance of 1 to 7 meters between the shooting position of the moving image and the subject's position is registered, and the process proceeds to step S116.

工程(ステップS116)は、被験者が4歩以上歩行する動画像があるか判定する工程である。歩行解析には、左右1歩行周期で計測を行うために、4歩以上連続で歩行した動画像を用いることが望ましく、例えば、左足踵が接地→右足踵が接地→左足踵が接地→右足踵が接地の歩行を含む動画像が必要であるため本判定を行う。本判定は必須の判定条件である。
本工程では、ステップS114で歩行解析条件を満たすと判定された動画像フレームに対し行う。したがって、ステップS114で歩行解析条件を満たすと判定されず、ステップS115でその旨の判定結果の登録がされた動画像フレームに対しては行わない。本工程では、ステップS111で抽出した左右足首の骨格点および重心から、左右踵が接地する位置を推定する。具体的には、重心位置が最も低いとき(図3のX方向の値が最も小さいとき)踵が接地しているときと推定でき、また、左足首の骨格点に対し重心位置が最も前方向に位置したとき(図3のY方向の値が最も大きいとき)左踵が接地したと推定でき、右足首の骨格点に対し重心位置が最も前方向に位置したときに右踵が接地したと推定できる。このようにして、踵が交互に各2回接地した動画像があるかを判定する。ステップS116での歩行解析条件は所定の歩行条件の1つであり、踵が交互に各2回接地した動画像があるか(4歩以上歩行した動画があるか)である。歩行解析条件を満たすと判定された場合はステップS118へ進み、歩行解析条件を満たさないと判定された場合はステップS117へ進む。
なお、工程(ステップS116)は、骨格点判定工程および歩数判定工程に相当する。
The step (step S116) is a step of determining whether there is a moving image in which the subject walks four or more steps. For gait analysis, it is desirable to use video images of four or more consecutive steps in order to perform measurements in one gait cycle on each side.For example, left heel touches the ground → right heel touches the ground → left heel touches the ground → right heel This judgment is made because a video image including walking while touching the ground is required. This judgment is an essential judgment condition.
This process is performed for the video frame determined to satisfy the gait analysis conditions in step S114. Therefore, the process is not performed on video frames for which it is not determined in step S114 that the gait analysis conditions are satisfied and for which the determination result to that effect is registered in step S115. In this step, the positions where the left and right heels touch the ground are estimated from the skeletal points and centers of gravity of the left and right ankles extracted in step S111. Specifically, when the center of gravity is at its lowest position (when the value in the X direction in Figure 3 is the smallest), it can be estimated that the heel is in contact with the ground. It can be assumed that the left heel touched the ground when the heel was positioned at the position (when the value in the Y direction in Fig. 3 is the largest), and that the right heel touched the ground when the center of gravity was located furthest forward relative to the skeletal point of the right ankle. It can be estimated. In this way, it is determined whether there is a moving image in which the heel alternately touches the ground twice. The gait analysis condition in step S116 is one of the predetermined gait conditions, and is whether there is a video in which the heel alternately touches the ground twice (or there is a video in which the heel is walked for four or more steps). If it is determined that the gait analysis conditions are satisfied, the process proceeds to step S118, and if it is determined that the gait analysis conditions are not satisfied, the process proceeds to step S117.
Note that the step (step S116) corresponds to a skeleton point determination step and a step count determination step.

工程(ステップS117)は、ステップS116で、歩行解析条件を満たさないと判定された場合に行う工程である。本工程では、ステップS116での判定結果として、4歩以上歩行した動画がなかった旨の結果を登録し、ステップS118へ進む。 The process (step S117) is a process performed when it is determined in step S116 that the walking analysis conditions are not satisfied. In this step, as the determination result in step S116, a result indicating that there is no video in which the user walks four steps or more is registered, and the process advances to step S118.

工程(ステップS118)は、ステップS114およびステップS116で各々歩行解析条件を満たすと判定された場合に行う工程である。本工程では、ステップS114およびステップS116で各々歩行解析条件を満たすと判定されたことにより、すなわち、動画像の撮影位置と被験者の位置との距離が1~7mで撮影された動画像のフレームで4歩以上歩行している場合に総合得点に1点を加点し、ステップS119へ進む。
ここで、総合得点について説明する。総合得点とは、歩行動画判定工程で行う各判定結果に基づき、判定した動画像が歩行解析条件をどの程度満たしているか、どの程度歩行解析に適した動画像であるかを数値化するために用いるものである。
The process (step S118) is a process performed when it is determined in step S114 and step S116 that the walking analysis conditions are satisfied. In this step, because it is determined that the gait analysis conditions are satisfied in step S114 and step S116, in other words, the frame of the video is taken at a distance of 1 to 7 m between the video shooting position and the subject's position. If the user has walked four or more steps, one point is added to the total score, and the process advances to step S119.
Here, the total score will be explained. The overall score is used to quantify the extent to which the judged video image satisfies the gait analysis conditions and how suitable it is for gait analysis, based on the results of each judgment made in the gait video judgment process. It is used.

工程(ステップS119)は、被験者が直線歩行する動画像があるか判定する工程である。一般的な歩行解析では、目的地に向かって直線的に自然歩行した際の動画像を解析するため、被験者が左右に蛇行して歩行するような動画像は歩行解析には適していない。そこで、被験者が一定の左右方向の範囲で歩行しているか判定を行う。本判定は必須の判定条件である。
本工程では、被験者の重心を判定し、当該重心が撮影装置に対し左右方向(図3のZ軸方向)の移動範囲が所定範囲であるかを判定する。本実施形態では、ステップS111で抽出した重心を被験者の重心として用いる。ステップS119での歩行解析条件は所定の歩行条件の1つであり、被験者の重心が撮影装置に対し左右方向の移動範囲が1メートル以内であることである。歩行解析条件を満たすと判定された場合はステップS121へ進み、歩行解析条件を満たさないと判定された場合はステップS120へ進む。
なお、工程(ステップS119)は、骨格点判定工程および重心判定工程に相当する。
The step (step S119) is a step of determining whether there is a moving image in which the subject walks in a straight line. In general gait analysis, a video image of a subject naturally walking in a straight line toward a destination is analyzed, so a video image in which the subject walks meandering from side to side is not suitable for gait analysis. Therefore, it is determined whether the subject is walking within a certain range in the left and right directions. This judgment is an essential judgment condition.
In this step, the center of gravity of the subject is determined, and it is determined whether the movement range of the center of gravity in the left-right direction (Z-axis direction in FIG. 3) with respect to the imaging device is within a predetermined range. In this embodiment, the center of gravity extracted in step S111 is used as the center of gravity of the subject. The gait analysis condition in step S119 is one of the predetermined gait conditions, and is that the subject's center of gravity moves within 1 meter in the left-right direction with respect to the imaging device. If it is determined that the gait analysis conditions are satisfied, the process proceeds to step S121, and if it is determined that the gait analysis conditions are not satisfied, the process proceeds to step S120.
Note that the step (step S119) corresponds to a skeleton point determination step and a center of gravity determination step.

工程(ステップS120)は、ステップS119で、歩行解析条件を満たさないと判定された場合に行う工程である。本工程では、ステップS119での判定結果として、被験者の重心が撮影装置に対し左右方向の移動範囲が1メートル以内の動画像ではない(直線歩行していない)旨の結果を登録し、ステップS122へ進む。 The process (step S120) is a process performed when it is determined in step S119 that the walking analysis conditions are not satisfied. In this process, as a determination result in step S119, a result indicating that the subject's center of gravity is not a moving image in which the movement range in the left and right direction with respect to the imaging device is within 1 meter (he is not walking in a straight line) is registered, and in step S122 Proceed to.

工程(ステップS121)は、ステップS119で歩行解析条件を満たすと判定された場合に行う工程である。本工程では、ステップS119で歩行解析条件を満たすと判定されたことにより、総合得点に1点を加点し、ステップS122へ進む。 The process (step S121) is a process performed when it is determined in step S119 that the walking analysis conditions are satisfied. In this step, since it is determined in step S119 that the gait analysis conditions are satisfied, one point is added to the total score, and the process proceeds to step S122.

工程(ステップS122)は、被験者が走っていない動画像があるか判定する工程である。歩行解析では、走行データを解析しないようにするため、被験者が走っている動画像は歩行解析には適していない。そこで、被験者が走っていない動画像があるか判定する。本判定は必須の判定条件である。
本工程での判定は、被験者が走っていることを示唆する歩行指標を判定することで行う。
被験者が走っていることを示唆する歩行指標について説明する。
被験者が走っていることを示唆する歩行指標としては、歩行速度、右足左足の接地時間、足位置の変化などがある。
歩行速度の場合、被験者の重心位置に基づき所定距離(例えば5m)移動した際に要した時間を計測し、速度を算出する。このときに用いる被験者の重心位置は、ステップS111で抽出した重心位置を用いればよい。
右足左足の接地時間の場合、右足踵と左足踵とのどちらも接地していない時間の有無によって判定する。右足踵と左足踵とのどちらも接地していない時間が有れば走っていると判定するようにする。右足踵および左足踵が接地しているか否かは、ステップS116の歩数判定工程と同様の方法で推定する。
足位置の変化の場合、ステップS111で抽出した左右足首の骨格点の上下(図3のX軸方向)の移動範囲が所定範囲以上の場合は、走っていると判定するようにする。
ステップS122での歩行解析条件は所定の歩行条件の1つであり、上記何れかの歩行指標に基づき、走っていないと判定されたフレームがあることである。歩行解析条件を満たすと判定された場合はステップS124へ進み、歩行解析条件を満たさないと判定された場合はステップS123へ進む。
なお、工程(ステップS122)は、骨格点判定工程および歩行判定工程に相当する。
The step (step S122) is a step of determining whether there is a moving image in which the subject is not running. In gait analysis, running data is not analyzed, so video images of the subject running are not suitable for gait analysis. Therefore, it is determined whether there is a video in which the subject is not running. This judgment is an essential judgment condition.
The determination in this step is performed by determining a gait index that suggests that the subject is running.
We will explain the gait index that suggests that the subject is running.
Gait indicators that suggest that the subject is running include walking speed, time in which the right foot and left foot are in contact with the ground, and changes in foot position.
In the case of walking speed, the time required to move a predetermined distance (for example, 5 m) is measured based on the subject's center of gravity position, and the speed is calculated. As the subject's center of gravity position used at this time, the center of gravity position extracted in step S111 may be used.
In the case of the time when the right foot and the left foot are in contact with the ground, the determination is made based on whether or not there is a time when neither the right heel nor the left heel is in contact with the ground. If there is a time when neither the right heel nor the left heel is in contact with the ground, it is determined that the user is running. Whether or not the right heel and the left heel are in contact with the ground is estimated using the same method as the step count determination step in step S116.
In the case of a change in foot position, if the vertical movement range (in the X-axis direction in FIG. 3) of the skeleton points of the left and right ankles extracted in step S111 is greater than or equal to a predetermined range, it is determined that the user is running.
The walking analysis condition in step S122 is one of predetermined walking conditions, and is that there is a frame in which it is determined that the user is not running based on any of the walking indicators described above. If it is determined that the gait analysis conditions are satisfied, the process proceeds to step S124, and if it is determined that the gait analysis conditions are not satisfied, the process proceeds to step S123.
Note that the process (step S122) corresponds to a skeletal point determination process and a walking determination process.

工程(ステップS123)は、ステップS122で、歩行解析条件を満たさないと判定された場合に行う工程である。本工程では、ステップS122での判定結果として、動画像には被験者が走ってないと判定された動画像はない旨の結果を登録し、ステップS125へ進む。 The process (step S123) is a process performed when it is determined in step S122 that the walking analysis conditions are not satisfied. In this step, as the determination result in step S122, a result indicating that there is no video image in which it has been determined that the subject is not running is registered, and the process proceeds to step S125.

工程(ステップS124)は、ステップS122で歩行解析条件を満たすと判定された場合に行う工程である。本工程では、ステップS122で歩行解析条件を満たすと判定されたことにより、総合得点に1点を加点し、ステップS125へ進む。 The process (step S124) is a process performed when it is determined in step S122 that the walking analysis conditions are satisfied. In this step, since it is determined in step S122 that the gait analysis conditions are satisfied, one point is added to the total score, and the process proceeds to step S125.

工程(ステップS125)は、動画像の被験者の顔の向きが上下左右方向に所定範囲内であるかを判定する工程である。被験者の顔の向きが上下左右方向に所定範囲を超えているような場合は、よそ見をして歩行している可能性が高く歩行解析に適した動画ではない。そこで、被験者が一定の上下左右方向の範囲内に顔を向けて歩行しているか判定を行う。本判定はあった方が好ましい判定条件である。
本工程では、ステップS111で抽出した頭頂(頭)、眉間、首、左右肩峰、および重心位置を用いて判定する。図4を用いて、本工程での判定方法について説明する。
頭頂、眉間、首、左右肩峰、および重心位置から、頭部座標系および身体座標系を作成する。頭部座標系は、頭頂と首を通るX軸(上下方向軸)・眉間を通りX軸と直交するY軸(前後方向軸)・X軸とY軸に直交するZ軸(左右方向軸)から成り立つ。身体座標系は、重心と左右肩峰の中点を通るX軸(上下方向軸)・左右肩峰を通る直線と平行なZ軸(左右方向軸)・X軸とZ軸に直交するY軸(前後方向軸)から成り立つ。身体座標系のZ軸およびY軸の高さ(X軸切片)は任意であるが、左右肩峰および重心を3頂点とする三角形の重心高さとすることができる。身体座標系に対して頭部座標系が上下左右に所定角度(例えば±30度)以内である場合に、被験者の顔の向きが上下左右方向に所定範囲内と判定する。より具体的には、頭部座標系のX軸と身体座標系のX軸との為す角が30度以下である場合に頭の倒れが小さいと判定する。また、頭部座標系のY軸と身体座標系のY軸との為す角が30度以下である場合に顔の左右の向き(よそ見)が小さいと判定する。Y軸に代えてZ軸を用い、頭部座標系のZ軸と身体座標系のZ軸との為す角が30度以下である場合に顔の左右の向き(よそ見)が小さいと判定してもよい。ステップS125での歩行解析条件は所定の歩行条件の1つであり、被験者の顔の上下および左右方向の移動範囲がそれぞれ±30度以内であることである。上記の例では頭の上下方向の許容角度と頭の左右方向の許容角度をどちらも±30度で共通としたが、本発明はこれに限られない。上下方向に頭を傾けて、すなわち足下を見ながら俯いて歩行することは、左右方向によそ見をしながら歩行することに比べて正常な歩容をとりやすいことから、頭の上下方向の許容角度を、頭の左右方向の許容角度よりも大きく設定してもよい。
動画像のうち被験者の顔の向きが僅かな時間(フレーム数)のみで±30度を超えた場合、歩行全体としては歩行解析に適した動画と判断することが好ましい。そこでステップS125の条件判定には顔の向きが上下または左右にぶれることを許容する「閾値割合」を予め設定しておくとよい。そして被験者の顔の上下方向または左右方向の少なくとも一方の向きが±30度を超えている時間またはフレーム数が、歩行全体の時間またはフレーム数に対してこの閾値割合以上となった場合に、当該歩行を不適すなわち歩行解析条件を満たさないと判定するとよい。この閾値割合は10%以上30%以下とすることが好ましい。そして所定条件を満たすと判定された場合はステップS127へ進み、歩行解析条件を満たさないと判定された場合はステップS126へ進む。
なお、工程(ステップS125)は、骨格点判定工程および顔判定工程に相当する。
The process (step S125) is a process of determining whether the orientation of the subject's face in the moving image is within a predetermined range in the vertical and horizontal directions. If the orientation of the subject's face exceeds the predetermined range in the vertical, horizontal, or horizontal directions, there is a high possibility that the subject is walking looking away, and the video is not suitable for gait analysis. Therefore, it is determined whether the subject is walking with his or her face facing within a certain range in the vertical and horizontal directions. This determination is a desirable determination condition.
In this step, determination is made using the vertex (head), glabella, neck, left and right acromion, and center of gravity position extracted in step S111. The determination method in this step will be explained using FIG. 4.
A head coordinate system and a body coordinate system are created from the crown of the head, between the eyebrows, the neck, the left and right acromions, and the center of gravity. The head coordinate system consists of the X-axis (vertical axis) passing through the top of the head and neck, the Y-axis (front-back axis) passing between the eyebrows and perpendicular to the X-axis, and the Z-axis (lateral-lateral axis) perpendicular to the X-axis and Y-axis. It consists of The body coordinate system consists of an X-axis (vertical axis) passing through the center of gravity and the midpoint of the left and right acromions, a Z-axis (lateral axis) parallel to a straight line passing through the left and right acromions, and a Y-axis perpendicular to the X-axis and Z-axis. (Anteroposterior direction axis) Although the heights of the Z-axis and Y-axis (X-axis intercept) of the body coordinate system are arbitrary, they can be set to the height of the center of gravity of a triangle whose three vertices are the left and right acromions and the center of gravity. When the head coordinate system is within a predetermined angle (for example, ±30 degrees) in the vertical and horizontal directions with respect to the body coordinate system, it is determined that the orientation of the subject's face is within a predetermined range in the vertical and horizontal directions. More specifically, if the angle formed by the X-axis of the head coordinate system and the X-axis of the body coordinate system is 30 degrees or less, it is determined that the head tilt is small. Furthermore, if the angle formed by the Y-axis of the head coordinate system and the Y-axis of the body coordinate system is 30 degrees or less, it is determined that the left and right direction of the face (looking away) is small. The Z-axis is used instead of the Y-axis, and if the angle between the Z-axis of the head coordinate system and the Z-axis of the body coordinate system is less than 30 degrees, it is determined that the left and right direction of the face (looking away) is small. Good too. The walking analysis condition in step S125 is one of the predetermined walking conditions, and is that the movement range of the subject's face in the vertical and horizontal directions is within ±30 degrees. In the above example, the permissible angle in the vertical direction of the head and the permissible angle in the horizontal direction of the head are both ±30 degrees, but the present invention is not limited to this. Walking with your head tilted in the vertical direction, that is, looking down while looking down at your feet, is easier to maintain a normal gait than walking while looking away from the left and right, so the permissible vertical angle of the head is may be set larger than the permissible angle in the horizontal direction of the head.
If the orientation of the subject's face exceeds ±30 degrees for only a short period of time (number of frames) in the video, it is preferable to determine that the video as a whole is suitable for gait analysis. Therefore, in the condition determination in step S125, it is preferable to set in advance a "threshold ratio" that allows the face direction to fluctuate vertically or horizontally. If the time or number of frames in which at least one of the vertical or horizontal directions of the subject's face exceeds ±30 degrees is equal to or greater than this threshold percentage of the entire walking time or number of frames, the relevant It is preferable to determine that the walking is inappropriate, that is, that the walking analysis conditions are not satisfied. This threshold ratio is preferably 10% or more and 30% or less. If it is determined that the predetermined condition is satisfied, the process proceeds to step S127, and if it is determined that the gait analysis condition is not satisfied, the process proceeds to step S126.
Note that the step (step S125) corresponds to a skeleton point determination step and a face determination step.

工程(ステップS126)は、ステップS125で、歩行解析条件を満たさないと判定された場合に行う工程である。本工程では、ステップS125での判定結果として、被験者の顔の向きが上下左右方向に所定範囲内の動画像ではない旨の結果を登録し、ステップS128へ進む。 The process (step S126) is a process performed when it is determined in step S125 that the walking analysis conditions are not satisfied. In this step, a result indicating that the subject's face direction is not within a predetermined range in the vertical and horizontal directions is registered as the determination result in step S125, and the process proceeds to step S128.

工程(ステップS127)は、ステップS125で歩行解析条件を満たすと判定された場合に行う工程である。本工程では、ステップS125で歩行解析条件を満たすと判定されたことにより、総合得点に1点を加点し、ステップS128へ進む。 The process (step S127) is a process performed when it is determined in step S125 that the walking analysis conditions are satisfied. In this step, since it is determined in step S125 that the gait analysis conditions are satisfied, one point is added to the total score, and the process proceeds to step S128.

工程(ステップS128)は、動画像の被験者の両手の位置が所定位置以下であるかを判定する工程である。自然な歩行状態では、両手首が所定位置(肘)より低い位置となるので、被験者の両手の位置が所定位置より高い場合、手に物を持っている可能性が高く歩行解析に適した動画ではない。そこで、被験者の両手が所定位置以下であるか判定を行う。本判定はあった方が好ましい判定条件である。
本工程では、被験者の両手を判定し、両手の位置が所定位置以下であるかを判定する。本実施形態では所定位置を両肘の位置とする。本実施形態では、ステップS111で抽出した被験者の両手首の骨格点の位置と両肘の骨格点の位置を比較し、両肘の骨格点の位置より両手首の骨格点の位置が低いか(図3のX軸の値が小さいか)を判定する。ステップS128での歩行解析条件は所定の歩行条件の1つであり、被験者の両手の位置が両肘の位置より低いことである。歩行解析条件を満たすと判定された場合はステップS130へ進み、歩行解析条件を満たさないと判定された場合はステップS129へ進む。
なお、工程(ステップS128)は、骨格点判定工程および両手判定工程に相当する。
The process (step S128) is a process of determining whether the positions of both hands of the subject in the moving image are below a predetermined position. In a natural walking state, both wrists are at a lower position than the prescribed position (elbows), so if the subject's hands are higher than the prescribed position, there is a high possibility that the subject is holding something in his hands, making the video suitable for gait analysis. isn't it. Therefore, it is determined whether both hands of the subject are below a predetermined position. This determination is a desirable determination condition.
In this step, both hands of the subject are determined, and it is determined whether the positions of both hands are below a predetermined position. In this embodiment, the predetermined positions are the positions of both elbows. In this embodiment, the positions of the skeletal points of both wrists of the subject extracted in step S111 are compared with the positions of the skeletal points of both elbows, and the positions of the skeletal points of both wrists are lower than the positions of the skeletal points of both elbows. It is determined whether the value of the X axis in FIG. 3 is small. The gait analysis condition in step S128 is one of the predetermined gait conditions, and is that the position of both hands of the subject is lower than the position of both elbows. If it is determined that the gait analysis conditions are satisfied, the process proceeds to step S130, and if it is determined that the gait analysis conditions are not satisfied, the process proceeds to step S129.
Note that the step (step S128) corresponds to a skeleton point determination step and a both hands determination step.

工程(ステップS129)は、ステップS128で、歩行解析条件を満たさないと判定された場合に行う工程である。本工程では、ステップS128での判定結果として、被験者の両手位置が所定位置以下ではない動画像である旨の結果を登録し、本処理を終了する。 The process (step S129) is a process performed when it is determined in step S128 that the walking analysis conditions are not satisfied. In this process, as the determination result in step S128, a result indicating that the position of both hands of the subject is not below a predetermined position is registered in the moving image, and this process ends.

工程(ステップS130)は、ステップS128で歩行解析条件を満たすと判定された場合に行う工程である。本工程では、ステップS128で歩行解析条件を満たすと判定されたことにより、総合得点に1点を加点し、本処理を終了する。 The process (step S130) is a process performed when it is determined in step S128 that the walking analysis conditions are satisfied. In this process, since it is determined in step S128 that the gait analysis conditions are satisfied, one point is added to the total score, and the process ends.

次に、総合得点を用いた評価内容について説明する。
上述したように、ステップS114、ステップS116、ステップS119、ステップS122、ステップS125、およびステップS128の判定結果に応じて、総合得点に所定点の加点を行う。この総合得点によって、動画像が歩行解析に適した動画像であるか評価することができる。また、総合得点によって、当該動画像を用いた歩行解析結果の精度を評価することも可能である。本実施形態では、歩行解析条件に関わらず、歩行解析条件を満たしていれば所定点として1点加点するようにしたが、歩行解析条件によって加点する得点を異ならせても良い。例えば、必須の判定条件と、あった方が好ましい判定条件とで、加点する得点を異ならせてもよい。総合得点は紙媒体、電子媒体に関わらず、結果を出力することを可能とする。また、判定された動画像を用いた歩行解析処理を行った結果に総合得点を含めてもよい。このようにすることで、どのような動画像を用いた歩行解析処理結果であるかがわかるため、歩行解析処理の結果精度の参考にすることができる。
Next, the content of evaluation using the total score will be explained.
As described above, a predetermined point is added to the total score according to the determination results in steps S114, S116, S119, S122, S125, and S128. Based on this total score, it is possible to evaluate whether the moving image is suitable for gait analysis. Furthermore, it is also possible to evaluate the accuracy of the walking analysis results using the video image based on the total score. In this embodiment, regardless of the gait analysis conditions, if the gait analysis conditions are met, one point is added as a predetermined point, but the points to be added may vary depending on the gait analysis conditions. For example, the points to be added may be different depending on an essential judgment condition and a desirable judgment condition. The total score can be output regardless of whether it is in paper or electronic media. Further, a total score may be included in the result of performing gait analysis processing using the determined moving image. By doing this, it is possible to know what kind of moving image was used to obtain the result of the gait analysis process, which can be used as a reference for the accuracy of the result of the gait analysis process.

図5(a)、(b)に、判定結果および総合得点の出力例を示す。本実施形態では、乳幼児の歩行発達を解析するために用いる動画像が、歩行解析に適した動画像であるか判定した結果を移動端末が備える表示装置に出力した場合を示す。
図5(a)の横軸は、動画像を撮影した日付を示し、縦軸は、発達日数を示す。ここでの発達日数とは、歩行解析に適した動画像であるか否かの判定を行った動画像を用いて、所定の歩行解析を行うことにより算出した被験者(乳幼児)の歩行発達日数である。算出した歩行発達日数の精度は、歩行解析に用いた動画像の判定結果および総合得点が影響する。図5(a)では、総合得点に応じてプロットの色を変えることにより、歩行解析に用いた動画像がどのような判定結果の動画像であるかを把握することが可能である。例えば、総合得点が高い順に、緑色(図5(a)では白塗り)→黄色(図5(a)では小ドットの網掛け)→橙色(図5(a)では大ドットの網掛け)でプロットする。プロットの色は、総合得点が満点の場合に緑色とし、満点に対し例えば-1~-3点の場合は黄色、それ以下の場合は橙色とする。プロットの色および対応する得点は、評価内容を考慮し設定することが好ましい。
図5(b)は、所定の撮影日の動画像の判定条件毎の判定結果を示している。図5(b)は、例えば、撮影日を指定(クリックやタッチ)することにより、該当の判定結果が表示されてもよいし、撮影日に対応したプロットを指定(クリックやタッチ)することにより、該当の判定結果が表示されてもよい。判定条件毎の判定結果によって、判定条件(例えば、図5(b)の歩数)の並びに表示されるボックスの色を変える。図5(b)では、ステップS116で判定された歩数については歩行解析条件である4歩を満たしていたため、よい判定結果を示す緑色(図5(b)では白塗り)が表示され、ステップS119で判定された直線歩行については、斜め歩行であったため、悪い判定結果を示す橙色(図5(b)では大ドットによる網掛け)が表示されている。このように、どのような条件の判定により、総合得点が高得点であった/低得点であったかを把握することができ、その後の撮影時に反映することが可能となる。
FIGS. 5(a) and 5(b) show output examples of determination results and total scores. In this embodiment, a case is shown in which the result of determining whether a moving image used to analyze the gait development of an infant is suitable for gait analysis is output to a display device included in a mobile terminal.
The horizontal axis in FIG. 5(a) indicates the date when the moving image was taken, and the vertical axis indicates the number of days of development. The number of days of development here refers to the number of days of gait development of the subject (infant) calculated by performing a prescribed gait analysis using a video image that has been determined to be suitable for gait analysis. be. The accuracy of the calculated number of days for gait development is affected by the judgment results of the video images used for gait analysis and the overall score. In FIG. 5A, by changing the color of the plot according to the total score, it is possible to understand what kind of determination result the moving image used for gait analysis has. For example, in descending order of overall score, green (white in Figure 5(a)) → yellow (shaded with small dots in Figure 5(a)) → orange (shaded with large dots in Figure 5(a)). Plot. The color of the plot is green when the total score is a perfect score, yellow when the total score is -1 to -3 points, and orange when it is less than that. The color of the plot and the corresponding score are preferably set in consideration of the content of the evaluation.
FIG. 5B shows the determination results for each determination condition for a moving image on a predetermined shooting date. In FIG. 5(b), for example, by specifying the shooting date (click or touch), the corresponding judgment result may be displayed, or by specifying the plot corresponding to the shooting date (click or touch). , the corresponding determination result may be displayed. Depending on the determination result for each determination condition, the color of the box displayed alongside the determination conditions (for example, the number of steps in FIG. 5(b)) is changed. In FIG. 5(b), since the number of steps determined in step S116 satisfies the walking analysis condition of 4 steps, a green color (white in FIG. 5(b)) indicating a good determination result is displayed, and step S119 Regarding the straight-line walking determined in , since it was diagonal walking, orange color (shading with large dots in FIG. 5(b)) indicating a bad determination result is displayed. In this way, it is possible to determine whether the overall score is high or low based on what conditions are determined, and this can be reflected in subsequent photographing.

このように、様々な所定条件で動画像を判定することで、歩行解析に適した動画像か否か評価することができる。また、歩行解析を行えない動画像については、歩行解析を行う前に解析対象外とすることができるため、処理効率の向上が可能となる。また、判定結果を視覚的に把握することが可能となる。さらに、動画像を用いた歩行解析結果に、当該動画像の判定結果を反映するため、どのような判定結果の動画像を用いた歩行解析結果であるか把握しやすくなる。 In this way, by determining a moving image under various predetermined conditions, it is possible to evaluate whether the moving image is suitable for walking analysis. Furthermore, since moving images that cannot be subjected to gait analysis can be excluded from analysis before gait analysis is performed, processing efficiency can be improved. Further, it becomes possible to visually understand the determination result. Furthermore, since the determination result of the video image is reflected in the gait analysis result using the video image, it becomes easier to understand what kind of determination result the gait analysis result using the video image has.

<情報処理端末>
次に、上述した動画像判定方法を実行する撮影装置を備えた情報処理端末(携帯端末)100について説明する。情報処理端末(携帯端末)100の概念図を図6に示す。
情報処理端末(携帯端末)100は、撮影装置(カメラ)110を備えていれば、一般的に携帯端末と称される携帯電話、タブレット端末、PDA、モバイルパーソナルコンピュータやウェアラブルデバイス、パーソナルコンピュータなどの何れでもよい。携帯端末100には、撮影手段である撮影装置110、判定手段である判定部120、記憶部130、および姿勢センサ140を備える。また、図示はしていないが、キーボード(タッチキーボードを含む)、ポインティングデバイスなどの入力装置、演算処理装置、表示装置などを備えている。
撮影装置110は、動画像を撮影する手段であり、携帯端末100が備えるカメラが相当する。
判定部120は、上述した動画像判定方法を実行する手段あり、演算処理装置に含まれる。
記憶部130は、撮影した動画像を記憶する手段である。また、判定部120による判定結果や評価結果(総合得点)なども記憶する手段であり、さらに、上述した動画像判定方法を実行するコンピュータプログラムも記憶する手段である。
姿勢センサ140は、携帯端末100の姿勢を計測するセンサで、携帯端末100が備える加速度センサ・角速度センサなどである。
<Information processing terminal>
Next, an information processing terminal (portable terminal) 100 including a photographing device that executes the above-described moving image determination method will be described. A conceptual diagram of the information processing terminal (portable terminal) 100 is shown in FIG.
If the information processing terminal (mobile terminal) 100 is equipped with a photographing device (camera) 110, it can be a mobile phone, tablet terminal, PDA, mobile personal computer, wearable device, personal computer, etc., which are generally referred to as mobile terminals. Either is fine. The mobile terminal 100 includes a photographing device 110 as a photographing means, a determining section 120 as a determining means, a storage section 130, and an attitude sensor 140. Although not shown in the drawings, it also includes input devices such as a keyboard (including a touch keyboard), a pointing device, an arithmetic processing unit, a display device, and the like.
The photographing device 110 is a means for photographing a moving image, and corresponds to a camera included in the mobile terminal 100.
The determination unit 120 has means for executing the above-described moving image determination method, and is included in the arithmetic processing device.
The storage unit 130 is a means for storing captured moving images. It is also a means for storing judgment results and evaluation results (total score) by the judgment unit 120, and also a means for storing a computer program for executing the above-described moving image judgment method.
The attitude sensor 140 is a sensor that measures the attitude of the mobile terminal 100, and is an acceleration sensor, an angular velocity sensor, etc. that the mobile terminal 100 has.

携帯端末100には撮影装置110を備えているため、当該撮影装置110は、上述した動画像判定方法の動画取得工程に相当する。
携帯端末100には姿勢センサ140が設けられているため、撮影装置110の姿勢を判定することができる。図1のステップS110に、撮影装置の姿勢を判定する処理を含め、当該処理では、姿勢センサ140から姿勢データを取得し、演算処理装置は、取得した姿勢データに基づき、撮影時の撮影装置110の姿勢を判定し、所定範囲以内の姿勢であれば携帯端末100に備えられている表示装置にアドバイスを表示しない、または、「正常」を表示し、それ以外の姿勢となると「撮影装置110が傾いています」などのアドバイスを表示するようにしてもよい。本実施形態では、所定範囲としては、左右前後方向に±25度とする。このように構成することで、歩行解析に適した動画像を撮影できるようにでき、撮影(取得)した動画像を用いた歩行解析の精度を高めることができる。
Since the mobile terminal 100 includes the photographing device 110, the photographing device 110 corresponds to the video acquisition step of the video image determination method described above.
Since the mobile terminal 100 is provided with the attitude sensor 140, the attitude of the photographing device 110 can be determined. Step S110 in FIG. 1 includes a process of determining the posture of the photographing device, and in this process, posture data is acquired from the posture sensor 140, and the arithmetic processing unit determines the posture of the photographing device 110 at the time of photographing based on the acquired posture data. If the posture is within a predetermined range, no advice will be displayed on the display device included in the mobile terminal 100, or "normal" will be displayed, and if the posture is outside of that, the message "The imaging device 110 is Advice such as "It's tilted" may be displayed. In this embodiment, the predetermined range is ±25 degrees in the left-right and front-back directions. With this configuration, it is possible to capture a moving image suitable for gait analysis, and it is possible to improve the accuracy of gait analysis using the captured (obtained) moving image.

携帯端末100では、撮影装置110で撮影した動画像を判定部120によって、上述した動画像判定方法により逐次、撮影(取得)した動画像の判定を行う。このとき、演算処理装置は、図2-1および図2-2に示したステップ114、ステップS116、ステップS119、ステップS122、ステップS125、およびステップS128の判定結果に基づき表示装置にアドバイスを表示してもよい。図7(a)、(b)に携帯端末100の表示装置の画面イメージを示す。例えば、ステップS128の判定で、被験者の両手位置が両肘位置より低いと判定されなかった場合、演算処理装置が表示手段に対し図7(a)に示すように「両手を下げていません」とアドバイスを表示するようにする。同様に、ステップS114の判定で撮影装置110と被験者の位置との距離が1~7mで撮影されていないと判定された場合は、演算処理装置が表示手段に対し図7(b)に示すように「カメラ距離1~7mではありません」とアドバイスを表示するようにする。このように構成することで、歩行解析に適した動画像を撮影できるようにでき、撮影(取得)した動画像を用いた歩行解析の精度を高めることができる。 In the mobile terminal 100, the determination unit 120 sequentially determines the video images photographed (acquired) by the photographing device 110 using the video determination method described above. At this time, the arithmetic processing device displays advice on the display device based on the determination results of step 114, step S116, step S119, step S122, step S125, and step S128 shown in FIGS. 2-1 and 2-2. It's okay. FIGS. 7A and 7B show screen images of the display device of the mobile terminal 100. For example, if it is not determined in step S128 that the position of both hands of the subject is lower than the position of both elbows, the arithmetic processing unit indicates to the display means that "both hands are not lowered" as shown in FIG. 7(a). and advice will be displayed. Similarly, if it is determined in step S114 that the distance between the photographing device 110 and the position of the subject is 1 to 7 meters and the subject is not photographed, the arithmetic processing unit causes the display means to display the image as shown in FIG. 7(b). display the following advice: ``The camera distance is not 1 to 7 meters.'' With this configuration, it is possible to capture a moving image suitable for gait analysis, and it is possible to improve the accuracy of gait analysis using the captured (obtained) moving image.

<コンピュータプログラム>
携帯端末100には、取得処理および判定処理を携帯端末100に実行させるためのコンピュータプログラム(以下、本プログラム)がインストールされている。本実施形態ではコンピュータプログラムは、上述した動画像判定アプリケーションソフトである。
取得処理は、歩行する被験者の動画像を取得する処理である。所定の媒体から取得する、ネットワーク経由で取得する、撮影装置から取得するなど動画像の取得元は問わない。判定処理は、歩行条件または撮影条件が所定条件を満たすか否かを判定する処理である。本プログラムにより、図1、図2-1、図2-1のフローチャートに示された処理が実行される。
<Computer program>
A computer program (hereinafter referred to as this program) for causing the mobile terminal 100 to execute acquisition processing and determination processing is installed in the mobile terminal 100. In this embodiment, the computer program is the above-mentioned moving image determination application software.
The acquisition process is a process of acquiring a moving image of a walking subject. The source of the video image does not matter, such as from a predetermined medium, via a network, or from a photographing device. The determination process is a process of determining whether the walking condition or the photographing condition satisfies a predetermined condition. This program executes the processes shown in the flowcharts of FIGS. 1, 2-1, and 2-1.

<変形例>
本実施形態では、機械学習により得られた骨格点学習モデルを用いて、取得した動画像から被験者の骨格点を抽出することで被験者を特定し、当該被験者の歩行解析を行うようにしたがこれに限らない。例えば、他の画像解析により被験者を特定し、被験者の動きを抽出し歩行解析を行ってもよい。この場合、判定する歩行解析条件に当該画像解析に適した条件を設定することで、同様の効果を得ることが可能となる。
<Modified example>
In this embodiment, a skeletal point learning model obtained by machine learning is used to identify a subject by extracting the skeletal points of the subject from the acquired video image, and the gait analysis of the subject is performed. Not limited to. For example, the subject may be identified through other image analysis, and the subject's movements may be extracted and gait analysis may be performed. In this case, the same effect can be obtained by setting conditions suitable for the image analysis as the gait analysis conditions to be determined.

本実施形態では、ステップS114の判定処理を行う際に、被験者の人体寸法データを取得し、当該データと被験者の重心位置に基づき撮影装置と被験者の位置との距離を推定し、判定したがこれに限らない。撮影位置にスケールや基準点を設け、スケールや基準点と共に撮影されるように歩行した動画像を取得するようにし、スケールや基準点も抽出することで、撮影装置と被験者の位置との距離を推定することが可能となる。例えば、所定の施設(保育園、高齢者施設)の利用者が撮影された動画像の動画像を判定するなど、撮影場所を固定できる場合には有効である。また、近赤外光や可視光、紫外線を使って被験者に光を照射し、その反射光を撮影装置に設けた光センサでとらえることで、被験者から撮影装置までの距離を測定するリモートセンシング技術を活用してもよい。光センサは撮影装置自体に設けるほか、撮影装置の近傍に設置してもよい。このように、光学的に動画像の撮影位置と被験者の位置との奥行き方向の距離(図3のY軸方向の距離)を推定し、推定結果が歩行解析条件を満たすか判定してもよい。 In this embodiment, when performing the determination process in step S114, the human body size data of the subject is acquired, and the distance between the imaging device and the position of the subject is estimated based on the data and the position of the center of gravity of the subject. Not limited to. By setting a scale and a reference point at the shooting position, and acquiring moving images of the patient walking so that they are photographed together with the scale and reference point, and also extracting the scale and reference point, the distance between the imaging device and the subject's position can be calculated. It becomes possible to estimate. For example, it is effective when the shooting location can be fixed, such as determining the moving image of a user of a predetermined facility (nursery school, elderly care facility). In addition, remote sensing technology measures the distance from the subject to the imaging device by irradiating the subject with near-infrared light, visible light, and ultraviolet light, and capturing the reflected light with an optical sensor installed in the imaging device. may also be used. The optical sensor may be provided in the photographing device itself or may be installed near the photographing device. In this way, the distance in the depth direction (distance in the Y-axis direction in FIG. 3) between the shooting position of the moving image and the position of the subject may be optically estimated, and it may be determined whether the estimation result satisfies the gait analysis conditions. .

本実施形態では、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される歩行解析条件を満たすか否かを判定するようにした。これに加え、撮影装置の姿勢が所定の範囲内であるかを歩行解析条件に含めても良い。
例えば、携帯端末100に備えられた撮影装置を用いて動画像を撮影する場合、動画像に撮影時の携帯端末100の姿勢情報を付加して記憶し、判定工程で姿勢情報を取得し、当該姿勢情報が所定範囲内であれば歩行解析条件を満たし、当該姿勢情報が所定範囲内でなければ歩行解析条件を満たさないと判定するようにしてもよい。例えば、図2-2に示したステップS130の処理の後に、撮影装置の姿勢情報を取得する姿勢取得工程と判定工程として、取得した姿勢情報が左右前後方向に±25度以内であるか判定する処理を設ければよい。この処理での歩行解析条件は所定の撮影条件の1つであり、具体的には、撮影装置の姿勢情報が左右前後方向に±25度以内であるかである。そして、歩行解析条件を満たすと判定された場合は、総合得点に1点加点するようにすることが好ましい。このように構成することで、動画像が歩行解析に適しているかさらに評価を行うことが可能となる。
In this embodiment, it is determined whether or not the walking analysis condition, which is composed of at least one of a predetermined walking condition or a predetermined photographing condition, is satisfied. In addition to this, the walking analysis conditions may include whether the posture of the photographing device is within a predetermined range.
For example, when photographing a moving image using a photographing device included in the mobile terminal 100, posture information of the mobile terminal 100 at the time of photographing is added to the moving image and stored, and the posture information is acquired in the determination step. It may be determined that the gait analysis condition is satisfied if the posture information is within a predetermined range, and that the gait analysis condition is not satisfied if the posture information is not within the predetermined range. For example, after the process of step S130 shown in FIG. 2-2, as an attitude acquisition step and a determination step to obtain attitude information of the photographing device, it is determined whether the acquired attitude information is within ±25 degrees in the left-right, front-back, and front-back directions. All you need to do is provide a process. The gait analysis condition in this process is one of the predetermined photographing conditions, specifically whether the posture information of the photographing device is within ±25 degrees in the left-right and front-back directions. If it is determined that the gait analysis conditions are satisfied, it is preferable to add one point to the total score. With this configuration, it is possible to further evaluate whether the moving image is suitable for walking analysis.

本実施形態では、携帯端末100は、撮影装置110の姿勢を判定し、判定結果に基づき、表示装置に「正常」、「撮影装置110が傾いています」などのアドバイスを表示するようにした。これに加えて、判定部120で動画像の撮影時の姿勢情報を取得し、当該姿勢情報が所定範囲内であれば歩行解析条件を満たし、当該姿勢情報が所定範囲内でなければ歩行解析条件を満たさない動画像であると判定するようにしてもよい。このように、携帯端末100の姿勢センサ140の姿勢情報に基づき、撮影時の撮影装置110の撮影姿勢に関するアドバイスを表示することに加え、撮影された動画像の評価も行うことが可能となる。 In this embodiment, the mobile terminal 100 determines the attitude of the photographing device 110, and displays advice such as "normal" or "the photographing device 110 is tilted" on the display device based on the determination result. In addition to this, the determination unit 120 acquires posture information at the time of shooting the moving image, and if the posture information is within a predetermined range, the gait analysis condition is satisfied, and if the posture information is not within the predetermined range, the gait analysis condition is satisfied. It may be determined that the moving image does not satisfy the following conditions. In this way, based on the posture information from the posture sensor 140 of the mobile terminal 100, in addition to displaying advice regarding the photographing posture of the photographing device 110 during photographing, it is also possible to evaluate the photographed moving image.

動画像取得工程で取得する動画像は、被験者が歩行すべき範囲や撮影装置の姿勢を撮影者にガイドする歩行路ガイド工程および撮影した動画像の被験者が特定できないように処理を行う被験者マスク工程を行った動画像データとしてもよい。図8に基づき、歩行路ガイド工程および被験者マスク工程について説明する。 The video images acquired in the video image acquisition process are processed through a walking path guide process that guides the photographer as to the range in which the subject should walk and the orientation of the imaging device, and a subject masking process that processes the captured video images so that the subject cannot be identified. It is also possible to use moving image data that has been subjected to Based on FIG. 8, the walking path guide process and the subject mask process will be described.

工程(ステップS101)は、撮影準備状態か否かを判定する工程である。「撮影準備状態」とは、撮影装置110が撮影可能な状態であり、撮影画面に被写体が表示される状態のことである。撮影準備状態でなければステップS103へ移行し、撮影準備状態であればステップS102へ移行する。 The process (step S101) is a process of determining whether or not the camera is in a shooting preparation state. The "photographing preparation state" is a state in which the photographing device 110 is ready for photographing and a subject is displayed on the photographing screen. If it is not in the shooting preparation state, the process moves to step S103, and if it is in the shooting preparation state, the process moves to step S102.

工程(ステップS102)は、歩行路ガイド及び水平ガイド表示を行う工程である。
「歩行路ガイド」とは、歩行動画を撮影する撮影者が精度のよい歩行解析を行える動画像を撮影できているかを撮影時に確認するための表示の1つである。撮影画面に被験者が歩行開始位置として最適な位置を表示し、また、歩行方向として最適な位置を表示する。図9に歩行路ガイドの表示例を示す。図9(a)は撮影範囲に被験者がいないため、撮影画面には被験者が表示されていない。図9(a)の撮影画面に表示された歩行路ガイド500は、被験者が歩行開始位置として最適な位置を示している。歩行路ガイド500の表示位置は、撮影装置110との距離および歩行解析に必要な歩数(4歩以上)分の距離を考慮して設定されている。具体的には、撮影装置110から6から8メートル程度、好ましくは7メートル程度の位置に歩行路ガイド500を表示する。図9(a)の歩行路ガイド500は人の形を模した図としているが、表示態様はこれに限らず、例えば、歩行開始位置として最適な位置に足跡マークを表示するようにしてもよい。図9(a)の歩行路ガイド510は、被験者の歩行方向および歩行範囲として最適な位置を示している。歩行路ガイド510の表示位置は、撮影装置110の位置(向き)に基づき、撮影装置110に対して垂直となるように設定されている。また、被験者が撮影装置110へ向かって歩行する際に左右方向に蛇行しながら歩行すると精度のよい歩行解析を行える動画像を撮影することができない。そこで、歩行路ガイド510は被験者と撮影装置110との方向、被験者と撮影装置110との距離、および、左右方向の歩行範囲(歩行幅)を考慮して設定されている。具体的には、撮影装置110から6から8メートル程度、好ましくは7メートル程度の距離で、被験者が撮影装置110に向かって垂直方向で、歩行範囲は2メートル程度、好ましくは1メートル程度となるように歩行路ガイド510を表示する。図9(a)の歩行路ガイド510は点線としているが、表示態様はこれに限らず、例えば、ブロックを模した図やロープを模した図を表示するようにしてもよい。
「水平ガイド」とは、歩行路ガイドと同様に、歩行動画を撮影する撮影者が精度のよい歩行解析を行える動画像を撮影できているかを撮影時に確認するための表示の1つである。水平ガイドは、撮影装置110の姿勢に関する情報である。撮影装置110の姿勢は携帯端末100に設けられている姿勢センサ(例えば、ジャイロセンサ)を用いて重力方向に対する携帯端末100の姿勢を検出し、検出結果に基づき現在の撮影方向を示す記号である姿勢表示マーカ「●」を水平ガイド520に表示する。図9に水平ガイド520の表示例を示す。水平ガイド520は十文字の中心に姿勢表示マーカ「●」が重なっていると、撮影装置110の姿勢が撮影者の接地面に対し水平であることを示し、十文字の中心から姿勢表示マーカ「●」がずれていると、撮影装置110の姿勢が撮影者の接地面に対し水平でないことを示している。図9(a)は撮影範囲に被験者がいないため、撮影画面には被験者が表示されていない。図9(b)は撮影範囲に被験者がおり、歩行路ガイド500の表示位置と被験者が重なって撮影画面に表示されるように撮影装置110を移動させる、または、被験者に移動を促す。このとき、被験者の顔の高さ、好ましくは目の高さと撮影装置110のレンズの高さが同程度であると精度のよい歩行解析を行える動画像を撮影することができる。図9(c)は、撮影装置110のレンズの高さと被験者の顔の高さが同程度であり、撮影装置110の姿勢が撮影者の接地面に対し水平であるため、水平ガイド520は撮影装置110の姿勢が水平であることを示している。図9(d)は、歩行路ガイド500の表示位置に被験者はいるが、撮影装置110のレンズの高さが被験者の顔より高い位置にあるため、被験者を見下ろすような角度に撮影装置110が設けられている。そこで、図9(d)の水平ガイド520は十文字の中心から姿勢表示マーカ「●」がずれて表示されている。水平ガイド520を確認することで、撮影者は撮影装置110の姿勢が傾いているか把握でき、また、水平ガイド520を確認しながら撮影装置110を正しい姿勢に調整することが可能となる。なお、水平ガイド520は図9に示した表示態様に限らず、数値によるもの、撮影画面上にグリッド線を表示するものなど、どのような表示態様でもよい。なお、図9では、歩行路ガイド500、歩行路ガイド510および水平ガイド520を撮影画面上に表示したが、音声によるガイドでもよく、表示と音声を併用してもよい。
The process (step S102) is a process of displaying a walking route guide and a horizontal guide.
The "walking route guide" is one of the displays used by the photographer who shoots the walking video to check whether he or she has captured a moving image that allows accurate walking analysis. The optimum position for the subject to start walking is displayed on the photographic screen, as well as the optimum position for the walking direction. FIG. 9 shows a display example of the walking path guide. In FIG. 9A, there is no subject in the photographing range, so no subject is displayed on the photographing screen. The walking route guide 500 displayed on the photographic screen in FIG. 9(a) indicates the optimal position for the subject to start walking. The display position of the walking route guide 500 is set in consideration of the distance from the photographing device 110 and the distance for the number of steps (4 or more steps) required for walking analysis. Specifically, the walking path guide 500 is displayed at a position about 6 to 8 meters, preferably about 7 meters from the photographing device 110. Although the walking route guide 500 in FIG. 9(a) is a diagram imitating the shape of a human, the display mode is not limited to this, and for example, footprint marks may be displayed at the optimal position as the walking start position. . The walking path guide 510 in FIG. 9(a) shows the optimal position for the subject's walking direction and walking range. The display position of the walking path guide 510 is set to be perpendicular to the photographing device 110 based on the position (orientation) of the photographing device 110. Further, if the subject meanders in the left-right direction when walking towards the imaging device 110, it is not possible to capture a moving image that allows accurate walking analysis. Therefore, the walking path guide 510 is set in consideration of the direction of the subject and the imaging device 110, the distance between the subject and the imaging device 110, and the walking range (walking width) in the left and right direction. Specifically, at a distance of about 6 to 8 meters, preferably about 7 meters from the imaging device 110, the subject walks vertically toward the imaging device 110, and the walking range is about 2 meters, preferably about 1 meter. The walking path guide 510 is displayed as follows. Although the walking route guide 510 in FIG. 9A is a dotted line, the display mode is not limited to this, and for example, a diagram simulating blocks or a diagram simulating a rope may be displayed.
Similar to the walking path guide, the "horizontal guide" is one of the displays used by the photographer who shoots the walking video to check whether he or she is shooting a moving image that allows accurate walking analysis. The horizontal guide is information regarding the attitude of the imaging device 110. The attitude of the photographing device 110 is a symbol that detects the attitude of the mobile terminal 100 with respect to the direction of gravity using an attitude sensor (for example, a gyro sensor) provided in the mobile terminal 100, and indicates the current photographing direction based on the detection result. A posture display marker “●” is displayed on the horizontal guide 520. FIG. 9 shows a display example of the horizontal guide 520. When the attitude display marker "●" overlaps the center of the cross, the horizontal guide 520 indicates that the attitude of the photographing device 110 is horizontal to the ground plane of the photographer, and the posture display marker "●" overlaps with the center of the cross. If the position is deviated, it indicates that the posture of the photographing device 110 is not horizontal to the ground plane of the photographer. In FIG. 9A, there is no subject in the photographing range, so no subject is displayed on the photographing screen. In FIG. 9B, there is a subject in the photographing range, and the photographing device 110 is moved or the subject is prompted to move so that the display position of the walking path guide 500 overlaps the subject and is displayed on the photographing screen. At this time, if the height of the subject's face, preferably the height of the eyes, and the height of the lens of the photographing device 110 are approximately the same, it is possible to photograph a moving image that allows accurate gait analysis. In FIG. 9(c), the height of the lens of the photographing device 110 and the height of the subject's face are approximately the same, and the posture of the photographing device 110 is horizontal to the ground plane of the photographer, so the horizontal guide 520 is It shows that the attitude of the device 110 is horizontal. In FIG. 9D, the subject is at the display position of the walking path guide 500, but the height of the lens of the photographing device 110 is higher than the subject's face, so the photographing device 110 is positioned at an angle that looks down on the subject. It is provided. Therefore, the horizontal guide 520 in FIG. 9(d) is displayed with the attitude display marker "●" shifted from the center of the cross. By checking the horizontal guide 520, the photographer can understand whether the posture of the photographing device 110 is tilted, and can adjust the photographing device 110 to the correct posture while checking the horizontal guide 520. Note that the horizontal guide 520 is not limited to the display mode shown in FIG. 9, but may be any other display mode such as a numerical value or a grid line displayed on the photographing screen. Note that in FIG. 9, the walking path guide 500, the walking path guide 510, and the horizontal guide 520 are displayed on the photographing screen, but they may be guided by audio, or the display and audio may be used together.

工程(ステップS103)は、撮影装置110が撮影中か否かを判定する工程である。ここでの「撮影中」とは、例えば、撮影ボタンが押下されていることを示す。撮影中でないと判定した場合は本処理を終了する。撮影中であると判定した場合は、ステップS104へ移行する。 The step (step S103) is a step of determining whether or not the photographing device 110 is photographing. "During shooting" here indicates, for example, that the shooting button is being pressed. If it is determined that shooting is not in progress, this process ends. If it is determined that shooting is in progress, the process moves to step S104.

工程(ステップS104)は、被写体である被験者が所定の撮影範囲に存在するか否かを判定する工程である。上述したように、本実施形態では上述したように機械学習モデルで被験者の骨格点を抽出して処理を行う。そこで、所定の撮影範囲は、機械学習モデルにより被験者の顔、好ましくは目を抽出するのに適した被験者と撮影装置110との距離(例えば8メートル以内か否か)を判定してもよいし、機械学習モデルにより被験者の顔、好ましくは目を抽出できた場合、所定範囲内であると判定してもよい。所定範囲内であると判定した場合はステップS105へ移行し、所定範囲内でないと判定した場合はステップS106へ移行する。 The process (step S104) is a process of determining whether or not a subject, which is a subject, exists within a predetermined photographing range. As described above, in this embodiment, the subject's skeletal points are extracted and processed using a machine learning model as described above. Therefore, the predetermined photographing range may be determined by using a machine learning model to determine the distance between the subject and the photographing device 110 that is suitable for extracting the subject's face, preferably the eyes (for example, whether it is within 8 meters or not). If the machine learning model is able to extract the subject's face, preferably the eyes, it may be determined that the face is within a predetermined range. If it is determined that it is within the predetermined range, the process moves to step S105, and if it is determined that it is not within the predetermined range, the process moves to step S106.

工程(ステップS105)は、ステップS104で被験者が所定の撮影範囲内に存在すると判定されたため、被験者が特定できないように被験者の目付近にモザイク処理を施す。モザイク処理を施す目付近は、機械学習モデルで被験者の骨格点を抽出し、抽出した骨格点から目の位置を推定し決定する。図10(b)に被験者の目付近にモザイク処理(図10(b)の550が相当)をすることで、歩行解析に用いた動画像によって被験者個人を特定することが困難となるため、安心して歩行解析を行うこと(歩行解析のために動画像を送付すること)が可能となる。なお、図10(b)では被験者の目付近にサングラスを模した画像を重ねて表示することにより、被験者個人の特定を困難としたが、他の画像やいわゆるモザイク(ぼかし)を入れる処理でもよい。被験者個人の特定を困難とするには、顔全体にモザイク処理を施すことが好ましいが、歩行解析を行う際に顔の骨格点を用いるため、歩行解析に必要な骨格点の抽出を行えてかつ被験者個人の特定を困難とする範囲にモザイク処理をすることとする。 In the step (step S105), since it is determined in step S104 that the subject is present within the predetermined photographing range, mosaic processing is performed around the subject's eyes so that the subject cannot be identified. For the areas near the eyes to be mosaiced, a machine learning model is used to extract the subject's skeletal points, and the positions of the eyes are estimated and determined from the extracted skeletal points. By applying mosaic processing near the subject's eyes (corresponding to 550 in Figure 10(b)) as shown in Figure 10(b), it becomes difficult to identify individual subjects from the video images used for gait analysis. It becomes possible to perform gait analysis with care (sending moving images for gait analysis). In addition, in Fig. 10(b), an image resembling sunglasses was superimposed near the subject's eyes to make it difficult to identify the individual subject, but other images or so-called mosaic (blurring) may also be added. . In order to make it difficult to identify individual subjects, it is preferable to apply mosaic processing to the entire face, but since the skeletal points of the face are used when performing gait analysis, it is possible to extract the skeletal points necessary for gait analysis. Mosaic processing will be applied to areas that make it difficult to identify individual subjects.

工程(ステップS106)は、ステップS104で被験者が所定の撮影範囲内に存在しないと判定されたため、撮影範囲全体にモザイク処理を施すことにより被験者が特定できないように処理を行う。図10(a)に撮影範囲全体にモザイク処理(図10(a)の560が相当)を施した例を示す。ステップS106は、被験者が所定の範囲内に存在しないと判定されたときに移行される処理であり、被験者の顔、好ましくは目の位置を正確に特定できない可能性が高いため、撮影範囲全体にモザイク処理を施すことで被験者個人を特定することが困難となるようにする。なお、撮影範囲全体に所定画像、例えば、雨粒画像を重ね合わせるようにしてもよいし、いわゆるモザイク(ぼかし)を入れる処理を行うようにしてもよい。 In the step (step S106), since it is determined in step S104 that the subject does not exist within the predetermined photographing range, processing is performed so that the subject cannot be identified by performing mosaic processing on the entire photographing range. FIG. 10(a) shows an example in which mosaic processing (corresponding to 560 in FIG. 10(a)) is applied to the entire imaging range. Step S106 is a process that is transferred when it is determined that the subject does not exist within the predetermined range. Mosaic processing makes it difficult to identify individual subjects. Note that a predetermined image, for example, a raindrop image, may be superimposed over the entire shooting range, or a so-called mosaic (blurring) process may be performed.

工程(ステップS107)は、撮影装置110による撮影が終了したか否かを判定する工程である。「撮影終了」とは、例えば、撮影ボタンの押下が解除されたか否かによって判定する。撮影終了と判定した場合は、本処理を終了する。撮影終了と判定されない場合は、ステップS104へ移行する。 The step (step S107) is a step of determining whether or not the photographing by the photographing device 110 has ended. The "end of shooting" is determined, for example, based on whether or not the pressing of the shooting button is released. If it is determined that the shooting has ended, this process ends. If it is not determined that the photographing has ended, the process moves to step S104.

図9および図10を用いて、歩行路ガイド工程および被験者マスク工程が行われる場合の画面イメージを説明する。
図9(a)は、撮影装置110が撮影準備状態であるときの撮影画面のイメージ図である。撮影位置に被験者が存在するか否かに関わらず、歩行路ガイド500、歩行路ガイド510および水平ガイド520が表示される。撮影準備状態であるときに歩行路ガイド500、歩行路ガイド510および水平ガイド520が表示されると、撮影者は被験者の位置や撮影装置110を調整しやすくなる。
図9(b)は、撮影装置110が撮影準備状態であるときに被験者が撮影位置に存在する状態の撮影画面のイメージ図である。図9(b)に示すように、撮影者は被験者の位置や撮影装置110の姿勢を表示されている歩行路ガイド500、歩行路ガイド510および水平ガイド520に基づき調整を行うことが可能となる。
図9(c)は、被験者の位置および撮影装置110の姿勢を調整し、撮影中の撮影画面イメージ図である。撮影中であることを530は撮影中であるときに表示される。このとき、歩行路ガイド500を表示してもよいが、図9(c)に示すように、歩行路ガイド500は表示せず、歩行路ガイド510および水平ガイド520を表示するようにしてもよい。このように撮影中も歩行路ガイド510および水平ガイド520が表示されていることにより、撮影者は被験者の歩行の位置や撮影装置110の姿勢を調整しながら撮影可能となる。
図9(d)は、図9(b)の状態で、被験者の目の高さより高い位置に撮影装置110があることにより、水平ガイド520は撮影装置110の姿勢が水平でないことを示している。また、「カメラが傾いています」とアドバイス表示をしてもよい。このような表示がされた場合、撮影者は撮影装置110の姿勢が水平になるように調整するようにすればよい。
図9は歩行路ガイド工程が行われる際の画面イメージである。図10に歩行路ガイド工程に加えて被験者マスク工程が行われる場合の画面イメージを示す。
図10(a)は、撮影中であり、かつ、被験者が所定範囲内に存在しない場合の撮影画面のイメージ図である。図10(a)に示すように、被験者が所定範囲内に存在しないため、撮影画面全体にマスク処理を施している。
図10(b)は、撮影中であり、かつ、被験者が所定範囲内に存在する場合の撮影画面イメージである。図10(b)に示すように、被験者が所定範囲内に存在するため、被験者の目にマスク処理を施している。
Screen images when the walking route guide process and the subject mask process are performed will be described using FIGS. 9 and 10.
FIG. 9A is an image diagram of the photographing screen when the photographing device 110 is in a photographing preparation state. Walking path guide 500, walking path guide 510, and horizontal guide 520 are displayed regardless of whether a subject is present at the imaging position. If the walking path guide 500, walking path guide 510, and horizontal guide 520 are displayed when the photographing preparation state is in progress, the photographer can easily adjust the position of the subject and the photographing device 110.
FIG. 9B is an image diagram of the photographing screen when the subject is present at the photographing position when the photographing device 110 is in the photographing preparation state. As shown in FIG. 9B, the photographer can adjust the position of the subject and the posture of the imaging device 110 based on the displayed walking path guide 500, walking path guide 510, and horizontal guide 520. .
FIG. 9C is an image of a photographing screen during photographing after adjusting the position of the subject and the posture of the photographing device 110. 530 indicating that the image is being photographed is displayed when the image is being photographed. At this time, the walking path guide 500 may be displayed, but as shown in FIG. 9(c), the walking path guide 500 may not be displayed, but the walking path guide 510 and the horizontal guide 520 may be displayed. . Since the walking path guide 510 and the horizontal guide 520 are displayed even during photographing, the photographer can take photographs while adjusting the walking position of the subject and the posture of the photographing device 110.
9(d) shows that in the state of FIG. 9(b), the horizontal guide 520 indicates that the posture of the imaging device 110 is not horizontal because the imaging device 110 is located at a position higher than the subject's eye level. . Further, an advice may be displayed saying "The camera is tilted." When such a display is displayed, the photographer may adjust the posture of the photographing device 110 so that it is horizontal.
FIG. 9 is a screen image when the walking path guide process is performed. FIG. 10 shows a screen image when a subject masking process is performed in addition to the walking path guiding process.
FIG. 10A is an image diagram of the imaging screen when imaging is in progress and the subject does not exist within the predetermined range. As shown in FIG. 10(a), since the subject does not exist within the predetermined range, mask processing is applied to the entire photographic screen.
FIG. 10(b) is a photographic screen image when photographing is in progress and the subject is within a predetermined range. As shown in FIG. 10(b), since the subject exists within a predetermined range, the subject's eyes are masked.

図9および図10に示したように、本実施形態では撮影状態のときにマスク処理を施すようにしている。これは撮影準備状態ではマスク処理を行っていない方が撮影者が被験者の位置および撮影装置110の姿勢を調整しやすいためである。撮影画像にどのようなマスク処理が施されるのか撮影前に確認したい場合もあるため、撮影準備状態でもマスク処理を施してもよい。また、図9(c)に示すように、撮影状態では歩行路ガイド500は表示しないようにしたが、表示してもよい。撮影者が被験者の位置および撮影装置110の姿勢を調整しやすい表示態様となるように適宜決定すればよい。 As shown in FIGS. 9 and 10, in this embodiment, mask processing is performed during the shooting state. This is because it is easier for the photographer to adjust the position of the subject and the posture of the imaging device 110 if mask processing is not performed in the imaging preparation state. Since there may be cases where it is desired to confirm what kind of mask processing will be applied to the photographed image before photographing, mask processing may be performed even in the photographing preparation state. Further, as shown in FIG. 9C, although the walking path guide 500 is not displayed in the photographing state, it may be displayed. The display mode may be appropriately determined so that the photographer can easily adjust the position of the subject and the posture of the imaging device 110.

図8のフローチャートは、撮影装置110で撮影が行われるときに、撮影した動画像に逐次マスク処理を行う場合について説明したが、既存の動画像に対しマスク処理を行ってもよい。この場合、既存の動画像を用いて歩行解析を行う際に、ステップS104~ステップS107の処理を実行し、マスク処理を行った動画像を記憶するようにすればよい。このようにすることで、歩行解析用に撮影した動画像以外のデータを用いて歩行解析する場合でも記憶・保存するデータでは被験者を特定することが困難であるため、安心して歩行解析を行うこと(歩行解析のために動画像を送付すること)が可能となる。 Although the flowchart in FIG. 8 describes a case in which mask processing is sequentially performed on captured moving images when imaging is performed with the imaging device 110, masking processing may also be performed on existing moving images. In this case, when performing gait analysis using an existing video image, the processes of steps S104 to S107 may be executed and the video image subjected to mask processing may be stored. By doing this, even when gait analysis is performed using data other than video images taken for gait analysis, it is difficult to identify the subject with the data that is memorized and saved, so gait analysis can be performed with confidence. (Sending video images for gait analysis) becomes possible.

本実施形態では、被験者の情報は撮影された動画像のみ(動画像から取得・推定可能な情報のみ)であるが、撮影された動画像に加え、被験者情報、特に、歩行に関連する項目を入力できるようにしてもよい。歩行に関連する項目は、歩行解析結果を用いて解析する事項によって決定してもよい。例えば、乳幼児の歩行発達レベルを解析する場合は、日齢(月齢、年齢、または、生年月日)、性別、身長および足の大きさなどの人体寸法、体重、つかまり立ちした日(日齢)、靴の有無および種類、おむつの有無および種類などを入力するようにすればよい。また、高齢者の健康レベルを解析する場合には、年齢(生年月日)、性別、身長などの人体寸法、体重、足の既往歴、生活スタイル、血圧などを入力するようにすればよい。 In this embodiment, the subject's information is only the captured moving image (only information that can be acquired and estimated from the moving image), but in addition to the captured moving image, subject information, especially items related to walking, is included. It may also be possible to input it. The items related to walking may be determined based on the items to be analyzed using the walking analysis results. For example, when analyzing the walking development level of infants and young children, age in days (age in months, age, or date of birth), gender, human body dimensions such as height and foot size, weight, and the date on which they stood up (in days) , presence/absence and type of shoes, presence/absence and type of diapers, etc. may be input. Furthermore, when analyzing the health level of an elderly person, it is sufficient to input information such as age (date of birth), gender, human body dimensions such as height, weight, medical history of the feet, lifestyle, blood pressure, etc.

上述した歩行動画判定工程に、所定の撮影条件として、撮影時の光量を判定する光量判定工程を含めてもよい。これは、撮影時の光量によって撮影された動画像を歩行解析する際の精度に影響があるためである。判定条件は、所定範囲の照度であれば総合得点に1点加点し、所定範囲の照度でなければその旨を判定結果として登録し、その後の工程に進むようにすればよい。光量は多すぎても(明るすぎても)少なすぎても(暗すぎても)歩行解析の際の精度に影響があるため、上限値および下限値を設けることが好ましい。また、撮影場所が外と室内では光の種類が異なるため、所定範囲を複数設定し、撮影場所に応じて判定に用いる所定範囲を決定するようにしてもよい。所定範囲は光の量を表す「ルーメン」または照らされている面の明るさを表す「ルクス」で設定すればよい。また、光量は撮影装置110が備えている露出計や露出計アプリケーションを用いて計測してもよいし、撮影装置110とは別に設けた露出計を用いて計測した値を用いて判定すればよい。 The walking video determining step described above may include, as a predetermined photographing condition, a light amount determining step of determining the amount of light at the time of photographing. This is because the amount of light at the time of shooting affects the accuracy of walking analysis of the captured moving image. As for the judgment conditions, if the illuminance is within a predetermined range, one point is added to the total score, and if the illuminance is not within the predetermined range, that fact may be registered as a judgment result, and the process may proceed to the subsequent steps. If the amount of light is too large (too bright) or too low (too dark), it will affect the accuracy of walking analysis, so it is preferable to set an upper limit and a lower limit. Furthermore, since the types of light are different when the shooting location is outside and indoors, a plurality of predetermined ranges may be set, and the predetermined range used for determination may be determined depending on the shooting location. The predetermined range may be set in "lumens", which represents the amount of light, or "lux", which represents the brightness of the illuminated surface. Further, the amount of light may be measured using a light meter or a light meter application provided in the photographing device 110, or may be determined using a value measured using a light meter provided separately from the photographing device 110. .

上述した歩行動画判定工程に、所定の撮影条件として、撮影時の撮影者の揺れ、手振れを判定する撮影装置揺れ判定工程を含めてもよい。これは、撮影時に撮影者が揺れた状態で撮影装置110を用いて撮影すると、撮影された動画像にぶれが生じ、ぶれの生じた動画像を歩行解析する際の精度に影響があるためである。判定条件は、撮影装置110に設けられているジャイロセンサ(角速度センサ)によって計測された値が所定範囲のもの(所定値以下のもの)であれば総合得点に1点加点し、所定範囲でなければその旨を判定結果として登録し、その後の工程に進むようにすればよい。 The walking video determining step described above may include, as a predetermined photographing condition, a photographing device shake determining step of determining shaking of the photographer and camera shake during photographing. This is because if the photographer uses the camera 110 to take a picture while shaking, the captured video image will be blurred, which will affect the accuracy of walking analysis of the blurred video image. be. The judgment conditions are that if the value measured by the gyro sensor (angular velocity sensor) provided in the photographing device 110 is within a predetermined range (below a predetermined value), one point is added to the overall score, and it must be within the predetermined range. It is only necessary to register that fact as a determination result and proceed to the subsequent steps.

上記実施形態は、以下の技術思想を包含する。
<1>
歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能であることを判定するための歩行解析条件を満たすかを判定する動画像判定方法であって、
前記動画像を取得する動画取得工程と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定工程と、を含むことを特徴とする動画像判定方法。
さらに、前記動画像は複数フレームで構成され、前記歩行動画判定工程は、前記動画取得工程によって全フレームを取得した後、または、取得したフレーム毎に判定を行うことを特徴とする上記の動画像判定方法。
<2>
前記歩行動画判定工程は、骨格点抽出工程と、該骨格点抽出工程後に実行される骨格点判定工程を含み、
前記骨格点抽出工程は、機械学習により得られた骨格点学習モデルを用いて前記動画像から前記被験者の骨格点を抽出し、
前記骨格点判定工程は、
前記骨格点抽出工程によって抽出された前記骨格点を用いて前記歩行解析条件を満たすかを判定することを特徴とする<1>に記載の動画像判定方法。
<3>
前記動画像の撮影位置と前記被験者の位置との距離を推定する距離推定工程と、をさらに含み、
前記所定の撮影条件には、前記推定した前記距離が所定範囲内であるフレームがあることを含むことを特徴とする<1>または<2>に記載の動画像判定方法。
<4>
前記被験者の歩数を判定する歩数判定工程をさらに含み、
前記所定の歩行条件は、前記判定した歩数が所定歩数以上であることを含むことを特徴とする<1>から<3>何れか1に記載の動画像判定方法。
<5>
前記被験者の重心を判定する重心判定工程をさらに含み、
前記所定の歩行条件は、前記判定した重心が左右方向に所定範囲内であることを含むことを特徴とする<1>から<4>何れか1に記載の動画像判定方法。
<6>
前記被験者が走っていることを示唆する歩行指標を判定する歩行判定工程をさらに含み、
前記所定の歩行条件は、走っていないと判定されたフレームがあることを含むことを特徴とする<1>から<5>何れか1に記載の動画像判定方法。
<7>
前記被験者の顔を判定する顔判定工程をさらに含み、
前記所定の歩行条件は、前記判定した前記顔の向きが左右方向に所定範囲内であることを含むことを特徴とする<1>から<6>何れか1に記載の動画像判定方法。
<8>
前記被験者の両手を判定する両手判定工程をさらに含み、
前記所定の歩行条件は、前記判定した前記両手が所定位置以下の高さであることを含むことを特徴とする<1>から<7>何れか1に記載の動画像判定方法。
<9>
前記動画像に複数の被験者が含まれる場合は、被験者単位に前記骨格点抽出を行うことを特徴とする<1>から<8>何れか1に記載の動画像判定方法。
<10>
前記骨格点抽出工程は、前記骨格点学習モデルを用いて前記動画像から前記被験者の骨格点を16箇所以上抽出することを特徴とする<2>から<9>何れか1に記載の動画像判定方法。
<11>
前記歩行動画判定工程は、前記被験者の骨格点を抽出できなかったフレームに対しては当該工程を終了することを特徴とする<2>から<10>何れか1に記載の動画像判定方法。
<12>
前記歩行動画判定工程は、前記骨格点抽出工程によって1被験者に対し所定数の骨格点を抽出できなかった場合および/または前記抽出した骨格点に基づき前記被験者の重心が算出されない場合は、当該工程を終了することを特徴とする<2>から<11>何れか1に記載の動画像判定方法。
<13>
前記所定の歩行条件は、前記骨格点抽出工程によって1被験者に対し所定数の骨格点の抽出および前記被験者の重心が算出されることを含む<2>から<12>何れか1に記載の動画像判定方法。
<14>
前記被験者の全身が撮影されているかを判定する全身判定工程をさらに含み、
前記全身判定工程は、前記骨格点抽出工程で抽出された前記被験者の骨格点同士が予め決められた位置関係にあるか判定し、
前記所定の撮影条件には、前記被験者の骨格点同士が予め決められた位置関係にあることを含む<2>から<13>何れか1に記載の動画像判定方法。
<15>
前記所定の撮影条件には、前記骨格点抽出工程で抽出された前記被験者の骨格点同士が予め決められた位置関係にあることであり、
前記歩行動画判定工程は、前記骨格点抽出工程で抽出された前記被験者の骨格点同士が予め決められた位置関係にない場合は、当該工程を終了することを含む<14>に記載の動画判定方法。
<16>
前記所定の撮影条件には、前記距離推定工程によって前記動画像の撮影位置と前記被験者の位置との距離が1~7mと推定された動画像があることを含むことを特徴とする<3>から<15>何れか1に記載の動画像判定方法。
<17>
前記歩行動画判定工程は、前記距離推定工程によって、前記動画像の撮影位置と前記被験者の位置との距離が所定範囲内ではないと推定された動画像に対応付けて当該推定結果を記憶することを特徴とする<3>から<16>何れか1に記載の動画像判定方法。
<18>
前記歩数判定工程は、前記骨格点抽出工程で抽出した左右足首の骨格点および重心から推定する左右踵が交互に各2回接地した動画像がある場合、前記所定歩数以上であると判定することを含む<4>から<17>何れか1に記載の動画像判定方法。
<19>
前記歩行動画判定工程は、前記歩数判定工程によって、前記判定した歩数が前記所定歩数以上でないと判定された動画像に対応付けて当該判定結果を記憶することを特徴とする<4>から<18>何れか1に記載の動画像判定方法。
<20>
前記歩行動画判定工程は、前記距離推定工程によって、前記動画像の撮影位置と前記被験者の位置との距離が所定範囲内であると推定されかつ前記歩数判定工程によって、前記判定した歩数が前記所定歩数以上であると判定されると推定および判定された動画像に対応付けて記憶される得点に加点することを特徴とする<4>から<19>何れか1に記載の動画像判定方法。
<21>
前記所定の歩行条件には、前記重心判定工程によって、前記骨格点抽出工程で抽出した被験者の重心が撮影装置に対し左右方向の移動範囲が1メートル以内であると判定されることを含む<5>から<20>何れか1に記載の動画像判定方法。
<22>
前記歩行動画判定工程は、前記重心判定工程によって、前記被験者の重心が撮影装置に対し左右方向の移動範囲が1メートル以内であると判定されない場合は動画像に対応付けて当該判定結果を記憶することを特徴とする<5>から<21>何れか1に記載の動画像判定方法。
<23>
前記歩行動画判定工程は、前記重心判定工程によって、前記被験者の重心が撮影装置に対し左右方向の移動範囲が1メートル以内であると判定された動画像に対応付けて記憶される得点に加点することを特徴とする<5>から<22>何れか1に記載の動画像判定方法。
<24>
前記歩行判定工程が判定する前記歩行指標は、歩行速度、右足左足の接地時間または足位置の変化の少なくとも何れかであり、
前記歩行速度の場合、前記骨格点抽出工程で抽出した骨格点を用いて算出した前記被験者の重心に基づき所定距離移動した際に要した時間を計測し、算出した速度が所定範囲以上の場合は、走っていると判定し、
前記右足左足の接地時間の場合、前記歩数判定工程で抽出した左右踵が接地する位置に基づき右足踵と左足踵とのどちらも接地していない時間が有れば走っていると判定し、
前記足位置の変化の場合、前記骨格点抽出工程で抽出した左右足首の骨格点の上下の移動範囲が所定範囲以上の場合は、走っていると判定することを特徴とする<6>から<23>何れか1に記載の動画像判定方法。
<25>
前記歩行動画判定工程は、前記歩行判定工程によって、走っている旨の判定がされた動画像データに対応付けて当該判定結果を記憶することを特徴とする<6>から<24>何れか1に記載の動画像判定方法。
<26>
前記歩行動画判定工程は、前記歩行判定工程によって、走っている旨の判定がされなかった動画像データに対応付けて記憶される得点に加点することを特徴とする<6>から<25>何れか1に記載の動画像判定方法。
<27>
前記所定の歩行条件には、前記顔判定工程によって、前記顔の向きの上下および左右方向の移動範囲が±30度以内であると判定されることを含む<7>から<26>何れか1に記載の動画像判定方法。
<28>
前記歩行動画判定工程は、前記顔判定工程によって、前記顔の向きの上下または左右方向の少なくとも一方の向きの移動範囲が±30度を超えている時間またはフレーム数、歩行全体の時間またはフレーム数に対して前記閾値割合以上となった場合に、前記所定の歩行条件を満たさないと判定し、前記閾値割合は10%以上30%以下であることを特徴とする<27>に記載の動画像判定方法。
<29>
前記歩行動画判定工程は、前記顔判定工程によって、前記顔の向きの上下および左右方向の移動範囲が±30度以内であると判定されなかった動画像に対応付けて当該判定結果を記憶することを特徴とする<7>から<28>何れか1に記載の動画像判定方法。
<30>
前記歩行動画判定工程は、前記顔判定工程によって、前記顔の向きの上下および左右方向の移動範囲が±30度以内であると判定された動画像に対応付けて記憶される得点に加点することを特徴とする<7>から<29>何れか1に記載の動画像判定方法。
<31>
前記所定の歩行条件には、前記両手判定工程によって、前記骨格点抽出工程で抽出した被験者の両手首の骨格点の位置と両肘の骨格点の位置を比較し、被験者の両手の位置が両肘の位置より低いと判定されることを含む<8>から<30>何れか1に記載の動画像判定方法。
<32>
前記歩行動画判定工程は、前記両手判定工程によって、前記被験者の両手の位置が両肘の位置より低いと判定されなかった動画像に対応付けて当該判定結果を記憶することを特徴とする<8>から<31>何れか1に記載の動画像判定方法。
<33>
前記歩行動画判定工程は、前記両手判定工程によって、前記被験者の両手の位置が両肘の位置より低いと判定された動画像に対応付けて記憶される得点に加点することを特徴とする<8>から<32>何れか1に記載の動画像判定方法。
<34>
前記撮影時の光量を判定する光量判定工程をさらに含み、
前記所定の撮影条件は、前記光量が所定範囲内であることを含むことを特徴とする<1>から<33>何れか1に記載の動画像判定方法。
<35>
前記歩行動画判定工程は、前記光量判定工程によって、前記光量が前記所定範囲内であると判定されなかった動画像に対応付けて当該判定結果を記憶することを特徴とする<34>に記載の動画像判定方法。
<36>
前記歩行動画判定工程は、前記光量判定工程によって、前記光量が前記所定範囲内であると判定された動画像に対応付けて記憶される得点に加点することを特徴とする<34>または<35>に記載の動画像判定方法。
<37>
前記撮影時の光量を判定する撮影装置揺れ判定工程をさらに含み、
前記所定の撮影条件は、前記撮影装置の揺れが所定範囲内であることを含むことを特徴とする<1>から<36>何れか1に記載の動画像判定方法。
<38>
前記歩行動画判定工程は、前記撮影装置揺れ判定工程によって、前記撮影装置の揺れが前記所定範囲内であると判定されなかった動画像に対応付けて当該判定結果を記憶することを特徴とする<37>に記載の動画像判定方法。
<39>
前記歩行動画判定工程は、前記撮影装置揺れ判定工程によって、前記撮影装置の揺れが前記所定範囲内であると判定された動画像に対応付けて記憶される得点に加点することを特徴とする<37>または<38>に記載の動画像判定方法。
<40>
前記歩行動画判定工程は、前記重心判定工程、前記歩行判定工程、前記顔判定工程、前記両手判定工程、前記光量判定工程および前記撮影装置揺れ判定工程の判定結果によって加点された得点によって、前記動画像が歩行解析に適した動画像であるかを評価する、または、前記動画像を用いた前記歩行解析結果の精度を評価することを特徴とする<23>、<26>、<30>、<33>、<36>および<39>いずれか1に記載の動画像判定方法。
<41>
前記被験者の人体の一部または全部の部位に関する寸法データを取得する人体寸法取得工程と、
前記動画像の前記被験者の画像における、前記部位の長さおよび前記被験者までの奥行き距離と、前記人体寸法データと、に基づき、前記動画像の撮影位置と前記被験者の位置との距離を推定する距離推定工程と、をさらに含むこと特徴とする<3>から<40>何れか1に記載の動画像判定方法。
<42>
歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能であることを判定するための歩行解析条件を満たすかを判定する動画像判定プログラムであって、
前記動画像を取得する動画取得処理と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定処理と、を含み、
前記動画像は複数フレームで構成され、
前記歩行動画判定処理は、前記動画取得処理によって全フレームを取得した後、または、取得したフレーム毎に判定を行うことを特徴とする動画像判定プログラム。
<43>
歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能であることを判定するための歩行解析条件を満たすかを判定する動画像判定装置であって、
前記動画像を取得する動画取得手段と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定手段と、を含み、
前記動画像は複数フレームで構成され、
前記歩行動画判定手段は、前記動画取得手段によって全フレームを取得した後、または、取得したフレーム毎に判定を行うことを特徴とする動画像判定装置。
<44>
前記動画像判定装置は、携帯端末であって、撮影手段、姿勢センサおよび表示手段をさらに備え、
前記歩行動画判定手段は、前記撮影手段の撮影時の姿勢を前記姿勢センサの検出結果に基づき左右前後方向に±25度以内であるか判定し、前記判定結果が前記左右前後方向に±25度以内であれば前記表示手段に正常である旨の情報を前記表示手段に表示制御し、または、前記判定結果に伴う情報を前記表示手段に表示制御しない一方、前記判定結果が前記左右前後方向に±25度以内でなければその旨の情報を前記表示手段に表示制御することを特徴とする<43>に記載の動画像判定装置。
<45>
前記動画像判定装置は、表示手段をさらに備え、
前記歩行動画判定手段は、前記動画取得手段によって取得したフレーム毎に判定を行う場合、各判定結果に応じて撮影者に撮影に関するアドバイスを前記表示手段に表示制御することを特徴とする<43>または<44>に記載の動画像判定装置。
<46>
前記動画像判定装置は、<42>に記載の動画像判定プログラムを記憶していることを特徴とする<43>から<45>何れか1に記載の動画像判定装置。
<47>
前記被験者が歩行すべき範囲および前記動画像を撮影する撮影装置の姿勢を撮影者にガイドする歩行路ガイド工程をさらに含むことを特徴とする<1>から<41>何れか1に記載の動画像判定方法。
<48>
前記被験者が特定できないように前記動画像にマスク処理を行う被験者マスク工程をさらに含むことを特徴とする<1>から<41>、<47>何れか1に記載の動画像判定方法。
The above embodiment includes the following technical ideas.
<1>
Determining whether a video image of a walking subject satisfies a gait analysis condition for determining that gait analysis is possible, which is comprised of at least one of a predetermined walking condition or a predetermined imaging condition. A moving image determination method, comprising:
a video acquisition step of acquiring the video image;
A moving image determining method, comprising: a walking moving image determining step of determining whether the acquired moving image satisfies the walking analysis conditions.
Furthermore, the moving image is composed of a plurality of frames, and the walking video determining step is characterized in that the walking video determining step performs the determination after all frames are acquired in the video acquiring step or for each acquired frame. Judgment method.
<2>
The walking video determination step includes a skeletal point extraction step and a skeletal point determination step executed after the skeletal point extraction step,
The skeletal point extraction step extracts the skeletal points of the subject from the video image using a skeletal point learning model obtained by machine learning,
The skeleton point determination step includes:
The moving image determination method according to <1>, wherein the skeletal points extracted in the skeletal point extraction step are used to determine whether the gait analysis conditions are satisfied.
<3>
further comprising a distance estimating step of estimating a distance between the shooting position of the video image and the position of the subject,
The moving image determination method according to <1> or <2>, wherein the predetermined shooting conditions include that there is a frame in which the estimated distance is within a predetermined range.
<4>
further comprising a step count determination step of determining the number of steps taken by the subject;
The video image determination method according to any one of <1> to <3>, wherein the predetermined walking condition includes that the determined number of steps is greater than or equal to a predetermined number of steps.
<5>
further comprising a center of gravity determination step of determining the center of gravity of the subject;
The moving image determination method according to any one of <1> to <4>, wherein the predetermined walking condition includes that the determined center of gravity is within a predetermined range in the left-right direction.
<6>
further comprising a gait determination step of determining a gait index suggesting that the subject is running,
The video image determination method according to any one of <1> to <5>, wherein the predetermined walking condition includes the presence of a frame in which it is determined that the person is not running.
<7>
further comprising a face determination step of determining the subject's face,
The moving image determination method according to any one of <1> to <6>, wherein the predetermined walking condition includes that the determined direction of the face is within a predetermined range in the left-right direction.
<8>
further comprising a two-handed determination step of determining both hands of the subject,
The video image determination method according to any one of <1> to <7>, wherein the predetermined walking condition includes that the determined both hands are at a height equal to or lower than a predetermined position.
<9>
The moving image determination method according to any one of <1> to <8>, wherein when the moving image includes a plurality of subjects, the skeleton point extraction is performed for each subject.
<10>
The moving image according to any one of <2> to <9>, wherein the skeletal point extraction step extracts 16 or more skeletal points of the subject from the moving image using the skeletal point learning model. Judgment method.
<11>
The method for determining a moving image according to any one of <2> to <10>, wherein the step of determining a walking video is terminated for a frame in which a skeletal point of the subject cannot be extracted.
<12>
The walking video determining step is performed when a predetermined number of skeletal points cannot be extracted for one subject in the skeletal point extraction step and/or when the center of gravity of the subject cannot be calculated based on the extracted skeletal points. The moving image determination method according to any one of <2> to <11>, characterized in that:
<13>
The video according to any one of <2> to <12>, wherein the predetermined walking condition includes extracting a predetermined number of skeletal points for one subject and calculating the center of gravity of the subject in the skeletal point extraction step. Image judgment method.
<14>
further comprising a whole body determination step of determining whether the whole body of the subject is photographed;
The whole body determination step determines whether the skeletal points of the subject extracted in the skeletal point extraction step are in a predetermined positional relationship;
The moving image determination method according to any one of <2> to <13>, wherein the predetermined imaging conditions include that skeletal points of the subject are in a predetermined positional relationship.
<15>
The predetermined imaging conditions include that the skeletal points of the subject extracted in the skeletal point extraction step are in a predetermined positional relationship;
The video determination according to <14>, wherein the walking video determination step includes terminating the step if the skeletal points of the subject extracted in the skeletal point extraction step do not have a predetermined positional relationship. Method.
<16>
<3> The predetermined photographing conditions include the presence of a moving image in which the distance between the photographing position of the moving image and the position of the subject is estimated to be 1 to 7 m in the distance estimation step. The moving image determination method according to any one of <15>.
<17>
The walking video determining step stores the estimation result in association with a video in which it is estimated in the distance estimation step that the distance between the shooting position of the video and the position of the subject is not within a predetermined range. The moving image determination method according to any one of <3> to <16>, characterized in that:
<18>
In the step count determining step, if there is a moving image in which the left and right heels estimated from the skeletal points of the left and right ankles extracted in the skeletal point extraction step and the center of gravity alternately touch the ground twice, it is determined that the number of steps has exceeded the predetermined number of steps. The moving image determination method according to any one of <4> to <17>.
<19>
The walking video determining step is characterized by storing the determination result in association with a video in which the determined number of steps is not equal to or greater than the predetermined number of steps in the step count determining step. >The moving image determination method according to any one of the above.
<20>
In the walking video determination step, the distance estimation step estimates that the distance between the shooting position of the video image and the subject's position is within a predetermined range, and the step count determination step determines that the determined number of steps is within the predetermined range. The moving image determination method according to any one of <4> to <19>, characterized in that when it is determined that the number of steps is greater than or equal to the number of steps, a point is added to a score stored in association with the estimated and determined moving image.
<21>
The predetermined walking condition includes determining in the center of gravity determination step that the center of gravity of the subject extracted in the skeletal point extraction step has a horizontal movement range of 1 meter or less with respect to the imaging device. The moving image determination method according to any one of > to <20>.
<22>
In the walking video determining step, if the center of gravity determining step does not determine that the subject's center of gravity has a horizontal movement range of 1 meter or less with respect to the imaging device, the determination result is stored in association with the video image. The moving image determination method according to any one of <5> to <21>, characterized in that:
<23>
The walking video determining step adds points to a score stored in association with a moving image in which it has been determined in the center of gravity determining step that the subject's center of gravity has a movement range of 1 meter or less in the left and right direction with respect to the imaging device. The moving image determination method according to any one of <5> to <22>.
<24>
The gait index determined in the gait determination step is at least one of gait speed, ground contact time of the right foot and left foot, or change in foot position,
In the case of the walking speed, the time required to move a predetermined distance is measured based on the center of gravity of the subject calculated using the skeletal points extracted in the skeletal point extraction step, and if the calculated speed is above a predetermined range, , determines that it is running,
In the case of the ground contact time of the right foot and the left foot, if there is a time when neither the right heel nor the left heel is in contact with the ground based on the positions where the left and right heels touch the ground extracted in the step count determination step, it is determined that the running is running,
In the case of a change in the foot position, if the vertical movement range of the left and right ankle skeletal points extracted in the skeletal point extraction step exceeds a predetermined range, it is determined that the foot is running. 23>The moving image determination method according to any one of the above.
<25>
Any one of <6> to <24>, wherein the walking video determining step stores the determination result in association with the video data for which running has been determined in the walking determining step. The video image determination method described in .
<26>
Any one of <6> to <25>, wherein the walking video determining step adds points to the scores stored in association with the moving image data for which running was not determined in the walking determining step. The moving image determination method according to (1).
<27>
The predetermined walking condition includes any one of <7> to <26> including that the face determination step determines that the vertical and horizontal movement range of the face is within ±30 degrees. The video image determination method described in .
<28>
The walking video determining step determines, through the face determining step, the time or number of frames in which the movement range of the face in at least one of the vertical or horizontal directions exceeds ±30 degrees, and the total time or number of frames walking. The moving image according to <27>, wherein it is determined that the predetermined walking condition is not satisfied when the threshold ratio is equal to or higher than the threshold ratio, and the threshold ratio is 10% or more and 30% or less. Judgment method.
<29>
The walking video determining step stores the determination result in association with a video in which the vertical and horizontal movement range of the face orientation is not determined to be within ±30 degrees in the face determining step. The moving image determination method according to any one of <7> to <28>, characterized in that:
<30>
The walking video determining step adds points to the scores stored in association with the video images in which the vertical and horizontal movement range of the face direction is determined to be within ±30 degrees in the face determining step. The moving image determination method according to any one of <7> to <29>, characterized in that:
<31>
The predetermined walking condition is determined by comparing the positions of the skeletal points of both wrists and the skeletal points of both elbows of the subject extracted in the skeletal point extraction step in the two-hand determination step, and determining whether the positions of both hands of the subject are The moving image determining method according to any one of <8> to <30>, including determining that the moving image is lower than the elbow position.
<32>
The walking video determining step is characterized in that the determination result is stored in association with a video image in which the positions of both hands of the subject were not determined to be lower than the positions of both elbows in the both hands determining step. The moving image determination method according to any one of > to <31>.
<33>
The walking video determining step is characterized in that points are added to a score stored in association with a video image in which the positions of both hands of the subject are determined to be lower than the positions of both elbows in the both hands determining step. The moving image determination method according to any one of > to <32>.
<34>
further comprising a light amount determining step of determining the amount of light at the time of photographing,
The moving image determination method according to any one of <1> to <33>, wherein the predetermined photographing conditions include that the amount of light is within a predetermined range.
<35>
According to <34>, the walking video determining step stores the determination result in association with a video image in which the light amount is not determined to be within the predetermined range in the light amount determining step. Video image judgment method.
<36>
<34> or <35> The walking video determining step adds points to a score stored in association with a moving image in which the light amount is determined to be within the predetermined range in the light amount determining step. >The moving image determination method described in >.
<37>
further comprising a photographing device shake determination step of determining the amount of light at the time of photographing;
The moving image determination method according to any one of <1> to <36>, wherein the predetermined photographing condition includes that shaking of the photographing device is within a predetermined range.
<38>
The walking video determining step is characterized in that the determination result is stored in association with a video in which the shaking of the photographing device was not determined to be within the predetermined range in the photographing device shake determining step. 37>.
<39>
The walking video determining step is characterized in that points are added to a score stored in association with a moving image in which the shaking of the photographing device is determined to be within the predetermined range in the photographing device shake determining step. 37> or the moving image determination method described in <38>.
<40>
In the walking video determining step, the video is determined based on the points added based on the determination results of the center of gravity determining step, the walking determining step, the face determining step, the both hands determining step, the light amount determining step, and the photographing device sway determining step. <23>, <26>, <30>, characterized by evaluating whether the image is a moving image suitable for gait analysis, or evaluating the accuracy of the gait analysis result using the moving image; The moving image determination method according to any one of <33>, <36>, and <39>.
<41>
a human body dimension acquisition step of acquiring dimension data regarding a part or all of the human body of the subject;
Estimating the distance between the shooting position of the moving image and the position of the subject based on the length of the part and the depth distance to the subject in the moving image of the subject, and the human body size data. The moving image determination method according to any one of <3> to <40>, further comprising a distance estimation step.
<42>
Determining whether a video image of a walking subject satisfies a gait analysis condition for determining that gait analysis is possible, which is comprised of at least one of a predetermined walking condition or a predetermined imaging condition. A moving image determination program,
a video acquisition process for acquiring the video image;
gait video determination processing for determining whether the acquired video image satisfies the gait analysis condition;
The moving image is composed of multiple frames,
A video image determination program characterized in that the walking video determination process performs determination after all frames are acquired by the video acquisition process or for each acquired frame.
<43>
Determining whether a video image of a walking subject satisfies a gait analysis condition for determining that gait analysis is possible, which is comprised of at least one of a predetermined walking condition or a predetermined imaging condition. A moving image determination device,
a video acquisition means for acquiring the video image;
gait video determining means for determining whether the acquired video image satisfies the gait analysis condition;
The moving image is composed of multiple frames,
The moving image determining device is characterized in that the walking moving image determining means performs the determination after all frames are acquired by the moving image acquiring means or for each acquired frame.
<44>
The moving image determination device is a mobile terminal, further comprising a photographing means, a posture sensor, and a display means,
The walking video determining means determines whether the posture of the photographing means at the time of photographing is within ±25 degrees in the left-right and front-back directions based on the detection result of the posture sensor, and the determination result is within ±25 degrees in the left-right and front-back directions. If it is within the range, the display means is controlled to display information indicating that the display is normal, or information accompanying the determination result is not displayed on the display means; The moving image determining device according to <43>, wherein if the error is not within ±25 degrees, the display means displays information to that effect.
<45>
The moving image determination device further includes a display means,
When the walking video determining means makes a determination for each frame acquired by the video acquiring means, the walking video determining means controls to display advice regarding photography to the photographer on the display means in accordance with each determination result <43> Or the moving image determination device according to <44>.
<46>
The moving image determining device according to any one of <43> to <45>, wherein the moving image determining device stores the moving image determining program described in <42>.
<47>
The video according to any one of <1> to <41>, further comprising a walking path guiding step of guiding a photographer about the range in which the subject should walk and the posture of a photographing device for photographing the moving image. Image judgment method.
<48>
The moving image determination method according to any one of <1> to <41> and <47>, further comprising a subject masking step of performing mask processing on the moving image so that the subject cannot be identified.

100 情報処理端末(携帯端末)
110 撮影装置
120 判定部
130 記憶部
140 姿勢センサ
500 歩行路ガイド
510 歩行路ガイド
520 水平ガイド
530 撮影中の表示
550 目付近のモザイク態様
560 全体のモザイク態様
100 Information processing terminal (mobile terminal)
110 Photographing device 120 Judgment unit 130 Storage unit 140 Posture sensor 500 Walking path guide 510 Walking path guide 520 Horizontal guide 530 Display during shooting 550 Mosaic aspect near eyes 560 Overall mosaic aspect

Claims (11)

歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能な動画像であることを判定するための歩行解析条件を満たすかを判定する動画像判定方法であって、
前記動画像を取得する動画取得工程と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定工程と、
前記動画像の撮影位置と前記被験者の位置との距離を推定する距離推定工程と、
前記被験者の歩数を判定する歩数判定工程と、を含み、
前記動画像は複数フレームで構成され、
前記歩行動画判定工程は、前記動画取得工程によって全フレームを取得した後、または、取得したフレーム毎に判定を行い、
前記所定の撮影条件には、前記推定した前記距離が所定範囲内であるフレームがあることを含み、
前記所定の歩行条件は、前記判定した歩数が所定歩数以上であることを含むことを特徴とする動画像判定方法。
Whether a video image of a walking subject satisfies the gait analysis conditions for determining that the video image is a video image that can be analyzed for gait analysis, which is composed of at least one of a predetermined walking condition or a predetermined shooting condition. A video image determination method for determining,
a video acquisition step of acquiring the video image;
a walking video determination step of determining whether the acquired video image satisfies the walking analysis conditions;
a distance estimation step of estimating the distance between the shooting position of the video image and the position of the subject;
a step count determination step of determining the number of steps taken by the subject ;
The moving image is composed of multiple frames,
The walking video determining step performs a determination after all frames are acquired in the video acquiring step or for each acquired frame,
The predetermined shooting condition includes that there is a frame in which the estimated distance is within a predetermined range,
A moving image determining method , wherein the predetermined walking condition includes that the determined number of steps is greater than or equal to a predetermined number of steps .
歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能な動画像であることを判定するための歩行解析条件を満たすかを判定する動画像判定方法であって、
前記動画像を取得する動画取得工程と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定工程と、
前記動画像の撮影位置と前記被験者の位置との距離を推定する距離推定工程と、
前記被験者の重心を判定する重心判定工程と、を含み、
前記動画像は複数フレームで構成され、
前記歩行動画判定工程は、前記動画取得工程によって全フレームを取得した後、または、取得したフレーム毎に判定を行い、
前記所定の撮影条件には、前記推定した前記距離が所定範囲内であるフレームがあることを含み、
前記所定の歩行条件は、前記判定した重心が左右方向に所定範囲内であることを含むことを特徴とする動画像判定方法。
Whether a video image of a walking subject satisfies the gait analysis conditions for determining that the video image is a video image that can be analyzed for gait analysis, which is composed of at least one of a predetermined walking condition or a predetermined shooting condition. A video image determination method for determining,
a video acquisition step of acquiring the video image;
a walking video determination step of determining whether the acquired video image satisfies the walking analysis conditions;
a distance estimation step of estimating the distance between the shooting position of the video image and the position of the subject;
a center of gravity determination step of determining the center of gravity of the subject ;
The moving image is composed of multiple frames,
The walking video determining step performs a determination after all frames are acquired in the video acquiring step or for each acquired frame,
The predetermined shooting condition includes that there is a frame in which the estimated distance is within a predetermined range,
The moving image determination method is characterized in that the predetermined walking condition includes that the determined center of gravity is within a predetermined range in the left-right direction .
歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能な動画像であることを判定するための歩行解析条件を満たすかを判定する動画像判定方法であって、
前記動画像を取得する動画取得工程と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定工程と、
前記動画像の撮影位置と前記被験者の位置との距離を推定する距離推定工程と、
前記被験者が走っていることを示唆する歩行指標を判定する歩行判定工程と、を含み、
前記動画像は複数フレームで構成され、
前記歩行動画判定工程は、前記動画取得工程によって全フレームを取得した後、または、取得したフレーム毎に判定を行い、
前記所定の撮影条件には、前記推定した前記距離が所定範囲内であるフレームがあることを含み、
前記所定の歩行条件は、走っていないと判定されたフレームがあることを含むことを特徴とする動画像判定方法。
Whether a video image of a walking subject satisfies the gait analysis conditions for determining that the video image is a video image that can be analyzed for gait analysis, which is composed of at least one of a predetermined walking condition or a predetermined shooting condition. A video image determination method for determining,
a video acquisition step of acquiring the video image;
a walking video determination step of determining whether the acquired video image satisfies the walking analysis conditions;
a distance estimation step of estimating the distance between the shooting position of the video image and the position of the subject;
a gait determination step of determining a gait index suggesting that the subject is running ;
The moving image is composed of multiple frames,
The walking video determining step performs a determination after all frames are acquired in the video acquiring step or for each acquired frame,
The predetermined shooting condition includes that there is a frame in which the estimated distance is within a predetermined range,
A moving image determining method , wherein the predetermined walking condition includes that there is a frame in which it is determined that the person is not running .
歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能な動画像であることを判定するための歩行解析条件を満たすかを判定する動画像判定方法であって、
前記動画像を取得する動画取得工程と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定工程と、
前記動画像の撮影位置と前記被験者の位置との距離を推定する距離推定工程と、
前記被験者の顔を判定する顔判定工程と、を含み、
前記動画像は複数フレームで構成され、
前記歩行動画判定工程は、前記動画取得工程によって全フレームを取得した後、または、取得したフレーム毎に判定を行い、
前記所定の撮影条件には、前記推定した前記距離が所定範囲内であるフレームがあることを含み、
前記所定の歩行条件は、前記判定した前記顔の向きが左右方向に所定範囲内であることを含むことを特徴とする動画像判定方法。
Whether a video image of a walking subject satisfies the gait analysis conditions for determining that the video image is a video image that can be analyzed for gait analysis, which is composed of at least one of a predetermined walking condition or a predetermined shooting condition. A video image determination method for determining,
a video acquisition step of acquiring the video image;
a walking video determination step of determining whether the acquired video image satisfies the walking analysis conditions;
a distance estimation step of estimating the distance between the shooting position of the video image and the position of the subject;
a face determination step of determining the face of the subject ;
The moving image is composed of multiple frames,
The walking video determining step performs a determination after all frames are acquired in the video acquiring step or for each acquired frame,
The predetermined shooting condition includes that there is a frame in which the estimated distance is within a predetermined range,
The moving image determination method is characterized in that the predetermined walking condition includes that the determined direction of the face is within a predetermined range in the left-right direction .
歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能な動画像であることを判定するための歩行解析条件を満たすかを判定する動画像判定方法であって、
前記動画像を取得する動画取得工程と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定工程と、
前記動画像の撮影位置と前記被験者の位置との距離を推定する距離推定工程と、
前記被験者の両手を判定する両手判定工程と、を含み、
前記動画像は複数フレームで構成され、
前記歩行動画判定工程は、前記動画取得工程によって全フレームを取得した後、または、取得したフレーム毎に判定を行い、
前記所定の撮影条件には、前記推定した前記距離が所定範囲内であるフレームがあることを含み、
前記所定の歩行条件は、前記判定した前記両手が所定位置以下の高さであること含むことを特徴とする動画像判定方法。
Whether a video image of a walking subject satisfies the gait analysis conditions for determining that the video image is a video image that can be analyzed for gait analysis, which is composed of at least one of a predetermined walking condition or a predetermined shooting condition. A video image determination method for determining,
a video acquisition step of acquiring the video image;
a walking video determination step of determining whether the acquired video image satisfies the walking analysis conditions;
a distance estimation step of estimating the distance between the shooting position of the video image and the position of the subject;
a two-handed determination step of determining both hands of the subject ;
The moving image is composed of multiple frames,
The walking video determining step performs a determination after all frames are acquired in the video acquiring step or for each acquired frame,
The predetermined shooting condition includes that there is a frame in which the estimated distance is within a predetermined range,
The moving image determination method is characterized in that the predetermined walking condition includes that the determined both hands are at a height equal to or lower than a predetermined position .
前記歩行動画判定工程は、
前記動画像に対応付けて判定結果に基づく得点を記憶させ、
前記歩行解析条件を満たさないと判定されたフレームに対しては、当該歩行動画判定工程を終了する、または当該フレームに対しては前記得点に判定結果に基づく得点を加算しない、のいずれかを行うことを特徴とする請求項1から5何れか一項に記載の動画像判定方法。
The walking video determination step includes:
storing a score based on the determination result in association with the moving image;
For frames that are determined not to satisfy the gait analysis conditions, either end the gait video determination process or do not add a score based on the determination result to the score for the frame. The moving image determination method according to any one of claims 1 to 5 .
前記歩行動画判定工程は、骨格点抽出工程と、該骨格点抽出工程後に実行される骨格点判定工程を含み、
前記骨格点抽出工程は、機械学習により得られた骨格点学習モデルを用いて前記動画像から前記被験者の骨格点を抽出し、
前記骨格点判定工程は、
前記骨格点抽出工程によって抽出された前記骨格点を用いて前記歩行解析条件を満たすかを判定し、
前記歩行動画判定工程は、
前記骨格点判定工程によって前記歩行解析条件を満たさないと判定された場合は、当該歩行動画判定工程を終了することを特徴とする請求項1から5何れか一項に記載の動画像判定方法。
The walking video determination step includes a skeletal point extraction step and a skeletal point determination step executed after the skeletal point extraction step,
The skeletal point extraction step extracts the skeletal points of the subject from the video image using a skeletal point learning model obtained by machine learning,
The skeleton point determination step includes:
Determining whether the gait analysis condition is satisfied using the skeletal points extracted by the skeletal point extraction step,
The walking video determination step includes:
6. The moving image determining method according to claim 1, wherein if it is determined in the skeleton point determining step that the walking analysis condition is not satisfied, the walking video determining step is terminated.
前記歩行動画判定工程は、骨格点抽出工程と、該骨格点抽出工程後に実行される骨格点判定工程と、全身判定工程とを含み、
前記骨格点抽出工程は、機械学習により得られた骨格点学習モデルを用いて前記動画像から前記被験者の骨格点を抽出し、
前記全身判定工程は、前記骨格点抽出工程で抽出された前記被験者の骨格点同士が予め決められた位置関係にあるかを判定し、
前記歩行動画判定工程は、前記全身判定工程の判定結果に基づき前記歩行解析条件を満たすかを判定する請求項1から5何れか一項に記載の動画像判定方法。
The walking video determination step includes a skeletal point extraction step, a skeletal point determination step executed after the skeletal point extraction step, and a whole body determination step,
The skeletal point extraction step extracts the skeletal points of the subject from the video image using a skeletal point learning model obtained by machine learning,
The whole body determination step determines whether the skeletal points of the subject extracted in the skeletal point extraction step are in a predetermined positional relationship,
The moving image determining method according to any one of claims 1 to 5, wherein the walking video determining step determines whether the walking analysis condition is satisfied based on the determination result of the whole body determining step.
歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能な動画像であることを判定するための歩行解析条件を満たすかを判定する動画像判定プログラムであって、
前記動画像を取得する動画取得処理と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定処理と、
前記動画像の撮影位置と前記被験者の位置との距離を推定する距離推定処理と、
前記被験者の歩数を判定する歩数判定処理と、を含み、
前記動画像は複数フレームで構成され、
前記歩行動画判定処理は、前記動画取得処理によって全フレームを取得した後、または、取得したフレーム毎に判定を行い、
前記所定の撮影条件には、前記推定した前記距離が所定範囲内であるフレームがあることを含み、
前記所定の歩行条件は、前記判定した歩数が所定歩数以上であることを含むことを特徴とする動画像判定プログラム。
Whether a video image of a walking subject satisfies the gait analysis conditions for determining that the video image is a video image that can be analyzed for gait analysis, which is composed of at least one of a predetermined walking condition or a predetermined shooting condition. A moving image determination program that determines
a video acquisition process for acquiring the video image;
walking video determination processing for determining whether the acquired video image satisfies the walking analysis conditions;
distance estimation processing for estimating the distance between the shooting position of the video image and the position of the subject;
Step count determination processing for determining the number of steps of the subject ,
The moving image is composed of multiple frames,
The walking video determination process performs a determination after all frames are acquired by the video acquisition process or for each acquired frame,
The predetermined shooting condition includes that there is a frame in which the estimated distance is within a predetermined range,
The moving image determination program is characterized in that the predetermined walking condition includes that the determined number of steps is greater than or equal to a predetermined number of steps .
歩行する被験者が撮影された動画像が、所定の歩行条件または所定の撮影条件の少なくとも一つから構成される、歩行解析が可能な動画像であることを判定するための歩行解析条件を満たすかを判定する動画像判定装置であって、
前記動画像を取得する動画取得手段と、
取得した前記動画像が前記歩行解析条件を満たすかを判定する歩行動画判定手段と、
前記動画像の撮影位置と前記被験者の位置との距離を推定する距離推定手段と、
前記被験者の歩数を判定する歩数判定手段と、を含み、
前記動画像は複数フレームで構成され、
前記歩行動画判定手段は、前記動画取得手段によって全フレームを取得した後、または、取得したフレーム毎に判定を行い、
前記所定の撮影条件には、前記推定した前記距離が所定範囲内であるフレームがあることを含み、
前記所定の歩行条件は、前記判定した歩数が所定歩数以上であることを含むことを特徴とする動画像判定装置。
Whether a video image of a walking subject satisfies the gait analysis conditions for determining that the video image is a video image that can be analyzed for gait analysis, which is composed of at least one of a predetermined walking condition or a predetermined shooting condition. A moving image determination device that determines
a video acquisition means for acquiring the video image;
walking video determining means for determining whether the acquired video image satisfies the walking analysis conditions;
distance estimating means for estimating the distance between the shooting position of the moving image and the position of the subject;
Step count determining means for determining the number of steps of the subject ,
The moving image is composed of multiple frames,
The walking video determining means performs the determination after all frames have been acquired by the video acquiring means or for each acquired frame,
The predetermined shooting condition includes that there is a frame in which the estimated distance is within a predetermined range,
The moving image determination device is characterized in that the predetermined walking condition includes that the determined number of steps is equal to or greater than a predetermined number of steps .
前記動画像判定装置は、表示手段をさらに備え、
前記歩行動画判定手段は、前記動画取得手段によって取得したフレーム毎に判定を行う場合、各判定結果に応じて撮影者に撮影に関するアドバイスを前記表示手段に表示制御することを特徴とする請求項10に記載の動画像判定装置。
The moving image determination device further includes a display means,
10. The walking video determining means, when performing the determination for each frame acquired by the video acquiring means, controls the display means to display advice regarding photography to the photographer in accordance with each determination result. The moving image determination device described in .
JP2022124096A 2021-08-16 2022-08-03 Video image judgment method Active JP7353438B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2022/030425 WO2023022072A1 (en) 2021-08-16 2022-08-09 Moving image determination method
CN202280055915.5A CN117813047A (en) 2021-08-16 2022-08-09 Dynamic image determination method
TW111130558A TW202318336A (en) 2021-08-16 2022-08-15 Moving image determination method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021132296 2021-08-16
JP2021132296 2021-08-16

Publications (3)

Publication Number Publication Date
JP2023027012A JP2023027012A (en) 2023-03-01
JP2023027012A5 JP2023027012A5 (en) 2023-05-24
JP7353438B2 true JP7353438B2 (en) 2023-09-29

Family

ID=85327113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022124096A Active JP7353438B2 (en) 2021-08-16 2022-08-03 Video image judgment method

Country Status (1)

Country Link
JP (1) JP7353438B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068965A (en) 2010-09-24 2012-04-05 Denso Corp Image recognition device
JP2013218476A (en) 2012-04-06 2013-10-24 Denso Corp Image recognition device
WO2020170299A1 (en) 2019-02-18 2020-08-27 三菱電機株式会社 Fatigue determination device, fatigue determination method, and fatigue determination program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068965A (en) 2010-09-24 2012-04-05 Denso Corp Image recognition device
JP2013218476A (en) 2012-04-06 2013-10-24 Denso Corp Image recognition device
WO2020170299A1 (en) 2019-02-18 2020-08-27 三菱電機株式会社 Fatigue determination device, fatigue determination method, and fatigue determination program

Also Published As

Publication number Publication date
JP2023027012A (en) 2023-03-01

Similar Documents

Publication Publication Date Title
US12013979B2 (en) Lightweight and low power cross reality device with high temporal resolution
JP6074494B2 (en) Shape recognition device, shape recognition program, and shape recognition method
US8718748B2 (en) System and methods for monitoring and assessing mobility
US8690326B2 (en) Method and systems for measuring interpupillary distance
US20220051441A1 (en) Multi-camera cross reality device
JP7057959B2 (en) Motion analysis device
US11889209B2 (en) Lightweight cross reality device with passive depth extraction
EP2898819A1 (en) System for measuring the interpupillary distance using a device equipped with a screen and a camera
JP6369811B2 (en) Gait analysis system and gait analysis program
US10620454B2 (en) System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping of camera images
WO2021052208A1 (en) Auxiliary photographing device for movement disorder disease analysis, control method and apparatus
JP7168953B2 (en) Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program
JP7353438B2 (en) Video image judgment method
CN115862124B (en) Line-of-sight estimation method and device, readable storage medium and electronic equipment
WO2023022072A1 (en) Moving image determination method
WO2021021085A1 (en) Modification of projected structured light based on identified points within captured image
CN117813047A (en) Dynamic image determination method
US20240242441A1 (en) Fit prediction based on detection of metric features in image data
TWM624462U (en) artificial intelligence fitness device
Sriram Identification and analysis of human physical exercise postures using computer vision and deep learning/Sriram Krishnamoorthy
CN115153517A (en) Testing method, device, equipment and storage medium for timing, standing and walking test
CN117178329A (en) Infant development stage calculating method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230516

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230919

R151 Written notification of patent or utility model registration

Ref document number: 7353438

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151