JP2007048232A - Information processing device, information processing method, and computer program - Google Patents
Information processing device, information processing method, and computer program Download PDFInfo
- Publication number
- JP2007048232A JP2007048232A JP2005234883A JP2005234883A JP2007048232A JP 2007048232 A JP2007048232 A JP 2007048232A JP 2005234883 A JP2005234883 A JP 2005234883A JP 2005234883 A JP2005234883 A JP 2005234883A JP 2007048232 A JP2007048232 A JP 2007048232A
- Authority
- JP
- Japan
- Prior art keywords
- information
- posture
- analysis
- registered
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、ユーザを撮影した画像や音声を入力し、ユーザの姿勢検出や、ユーザの姿勢、行動解析処理を行なう情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。さらに、詳細には、例えばカメラによるユーザの撮影画像からユーザの姿勢を判定し、判定情報を提供する処理や、一定期間の撮影画像や取得音声に基づいてユーザの姿勢や行動サマリーを生成して提供することを可能とした情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a computer program for inputting an image or sound of a user and performing user posture detection, user posture and behavior analysis processing. More specifically, for example, a user's posture is determined from a captured image of the user by a camera, and processing for providing determination information, a user's posture and a behavior summary are generated based on a captured image and acquired sound for a certain period. The present invention relates to an information processing apparatus, an information processing method, and a computer program that can be provided.
人物をカメラによって撮影し、その撮影画像に基づいてユーザの動作や姿勢などを解析するシステムについての研究、開発が盛んに行なわれている。例えば特許文献1には、人物の顔を含む画像データを取得して顔画像領域とその他の身体画像領域とに基づいて人物の動作内容を解析するシステムについて開示している。
Research and development of a system for photographing a person with a camera and analyzing a user's movement and posture based on the photographed image are actively conducted. For example,
また、PCなどの情報処理装置に対するデータ入力処理において、マウスやキーボードのような物理的なデバイスを使わずに、ユーザの身振りや手振りなどのジェスチャーを解析して、この解析結果に基づいてデータ入力を行なう方法が提案されている。例えば、非特許文献1〜3は、このようなユーザの身振りや手振りなどのジェスチャーを識別して、コマンド入力を行なう手法を開示している。
In data input processing for information processing devices such as PCs, gestures such as user gestures and hand gestures are analyzed without using a physical device such as a mouse or keyboard, and data input is performed based on the analysis results. A method of performing is proposed. For example, Non-Patent
この方法では、まず、ビデオカメラで人物や人物の一部、例えば手を撮影し、画像処理によって背景から身体領域を切り出す。その後、その身体領域の部分が身体のどの部分に相当するかを特定する。これには身体モデルとのマッチングが必要となる。 In this method, first, a person or a part of a person, for example, a hand is photographed with a video camera, and a body region is cut out from the background by image processing. Thereafter, it is specified which part of the body the part of the body region corresponds to. This requires matching with a body model.
次に、身体形状の連続的な変化にもとづいて身振り(ジェスチャー)の意味を推定する。この推定は、身体形状の時系列的な変化とその意味を対応付けた辞書(身振り辞書)にもとづいて行なわれる。 Next, the meaning of gesture (gesture) is estimated based on the continuous change of the body shape. This estimation is performed based on a dictionary (gesture dictionary) that associates time-series changes in body shape and their meanings.
さらに、その他の画像に基づく動作識別処理を開示した従来技術としては、例えば、特許文献2に記載の技術がある。特許文献2には、被写体を複数のカメラで異なる方向から撮影し、これらの複数の画像の解析を行うことで、被写体の3次元の動きを解析する手法が示されている。また、特許文献3には、人物の頭部の撮影画像に基づいて頭部の動きと、視線方向を検出して、人物のうなずき動作を高精度に検出する構成が示されている。
しかし、上述した、従来技術に示されているユーザの動作検出、姿勢検出処理は、撮影画像データに基づく極めて複雑なアルゴリズムによる解析を必要とするものであり、効率的な処理とは言えず、専用のシステムの構築の必要性、コスト高、処理負荷が大きいといった問題を有している。すなわち、計算量が膨大であり、しかも認識精度が低いという欠点がある。また、ビデオ画像から人物や人物の一部を切り出して追尾させるためには、従来の方法では、機械学習による学習を必要としており、この学習に手間がかかるという問題がある。 However, the above-described user motion detection and posture detection processing shown in the prior art requires analysis by an extremely complicated algorithm based on the captured image data, and cannot be said to be efficient processing. There are problems such as necessity of construction of a dedicated system, high cost, and large processing load. That is, the calculation amount is enormous and the recognition accuracy is low. In addition, in order to cut out and track a person or a part of a person from a video image, the conventional method requires learning by machine learning, and there is a problem that this learning takes time.
本発明は、これらの問題点に鑑みて行なわれたもので、その目的は、物理的なデバイスを一切装着することなく、また多大な機械学習によるチューニングなしに、カメラによるユーザの撮影画像から効率的にユーザの姿勢を判定し、判定情報を提供する処理や、一定期間の撮影画像や取得音声に基づいてユーザの姿勢や行動サマリーを生成して提供することを可能とした情報処理装置、および情報処理方法、並びにコンピュータ・プログラムを提供することである。 The present invention has been made in view of these problems, and an object of the present invention is to improve efficiency from a photographed image of a user by a camera without wearing any physical device and without tuning by a large amount of machine learning. An information processing apparatus capable of automatically determining a user's posture, providing determination information, and generating and providing a user's posture and action summary based on a captured image and acquired sound for a certain period, and An information processing method and a computer program are provided.
本発明の第1の側面は、対象領域を撮影する撮影部と、前記撮影部の撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理部と、複数の登録姿勢に対応する姿勢判定情報を登録情報として記憶した記憶部と、前記姿勢判定情報と、前記記憶部に格納された複数の登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理部と、前記姿勢分類処理部において分類された登録姿勢に基づいて解析情報を生成する解析情報生成部と、前記解析情報生成部の生成した解析情報を出力する情報出力部とを有することを特徴とする情報処理装置にある。 According to a first aspect of the present invention, a photographing unit that photographs a target region, a posture determination processing unit that acquires posture determination information based on a person image included in a captured image of the photographing unit, and a plurality of registered postures A storage unit that stores corresponding posture determination information as registration information, the posture determination information, and a plurality of registration information stored in the storage unit, and a registered posture having registration information similar to the posture determination information Are classified as postures of persons included in the captured image, an analysis information generation unit that generates analysis information based on registered postures classified by the posture classification processing unit, and the analysis information generation unit And an information output unit that outputs the generated analysis information.
本構成によれば、多数の撮影フレーム画像を入力して姿勢解析を実行する場合、撮影画像に含まれる人物画像を特定の限られた数の登録姿勢に分類して、分類登録姿勢に基づく解析を実行する構成としたので、処理効率が向上し、蓄積データ量の削減も実現される。また、登録姿勢に基づく解析情報の生成、ユーザに対する解析情報の提供も処理負担が軽減され効率的に行なうことが可能となる。 According to this configuration, when performing posture analysis by inputting a large number of captured frame images, the person images included in the captured images are classified into a specific limited number of registered postures, and analysis based on the classification registered postures is performed. Therefore, the processing efficiency is improved and the amount of stored data is also reduced. Also, the generation of analysis information based on the registered posture and the provision of analysis information to the user can be efficiently performed with a reduced processing burden.
さらに、本発明の情報処理装置の一実施態様において、前記記憶部は、前記複数の登録姿勢に対応する登録情報として各登録姿勢の評価判定情報有し、前記解析情報生成部は、前記姿勢分類処理部において分類された登録姿勢に対応して設定された評価判定情報に基づいて、前記撮影画像に含まれる人物の姿勢についての評価情報を生成する構成であることを特徴とする。 Furthermore, in one embodiment of the information processing apparatus of the present invention, the storage unit has evaluation determination information for each registered posture as registered information corresponding to the plurality of registered postures, and the analysis information generation unit includes the posture classification The configuration is characterized in that evaluation information about the posture of a person included in the photographed image is generated based on the evaluation determination information set corresponding to the registered posture classified in the processing unit.
本構成によれば、ユーザに対するフィードバック情報として姿勢の評価情報を提供することが可能となり、ユーザは、評価情報に基づいて、姿勢の修正を行なうことが可能となる。 According to this configuration, posture evaluation information can be provided as feedback information to the user, and the user can correct the posture based on the evaluation information.
さらに、本発明の情報処理装置の一実施態様において、前記情報出力部は、前記解析情報生成部の生成した評価情報について、インジケータ表示処理を実行する構成であることを特徴とする。 Furthermore, in an embodiment of the information processing apparatus according to the present invention, the information output unit is configured to execute an indicator display process for the evaluation information generated by the analysis information generation unit.
本構成によれば、自分の姿勢の状態をインジケータで確認することが可能となり、姿勢の修正をインジケータを確認しながら正しく実行することができる。 According to this configuration, it is possible to check the state of one's posture with an indicator, and correct posture can be correctly executed while checking the indicator.
さらに、本発明の情報処理装置の一実施態様において、前記情報出力部は、撮影画像フレームに含まれる人物の頭部および胴体の傾き情報を、人物画像に併せて表示する処理を実行する構成であることを特徴とする。 Furthermore, in an embodiment of the information processing apparatus of the present invention, the information output unit is configured to execute a process of displaying the inclination information of the person's head and torso included in the captured image frame together with the person image. It is characterized by being.
本構成によれば、自分の姿勢の状態を人物画像と頭部および胴体の傾き情報で確認することが可能となり、姿勢の修正を画像を確認しながら正しく実行することができる。 According to this configuration, it is possible to check the state of one's posture with the person image and the tilt information of the head and torso, and correct the posture can be correctly executed while checking the image.
さらに、本発明の情報処理装置の一実施態様において、前記情報出力部は、前記姿勢判定処理部において、生成した姿勢の角度の基準を示す基準線と、姿勢の傾きを示す線とを姿勢を示す画像に重畳して表示する処理を実行する構成であることを特徴とする。 Furthermore, in one embodiment of the information processing apparatus of the present invention, the information output unit is configured to determine a reference line indicating a reference for the generated posture angle and a line indicating the inclination of the posture in the posture determination processing unit. It is the structure which performs the process which superimposes and displays on the image shown.
本構成によれば、自分の姿勢の状態を人物画像と姿勢の角度の基準を示す基準線と、姿勢の傾きを示す線線で確認することが可能となり、姿勢の修正を画像を確認しながら正しく実行することができる。 According to this configuration, it is possible to confirm the state of one's posture with a reference line indicating the reference of the person image and the angle of the posture, and a line indicating the inclination of the posture, and correcting the posture while checking the image It can be executed correctly.
さらに、本発明の情報処理装置の一実施態様において、前記解析情報生成部は、
予め定めた測定期間内における人物の姿勢解析情報を生成する構成であり、前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理部が分類した各前記撮影画像に対応する分類登録姿勢に基づいて、登録姿勢と、前記測定期間内における該登録姿勢の時間的占有率情報を対応付けた情報を解析情報として生成する構成であることを特徴とする。
Furthermore, in one embodiment of the information processing apparatus of the present invention, the analysis information generation unit includes:
Classification registration corresponding to each photographed image classified by the posture classification processing unit based on the photographed image acquired during the measurement period, and generating posture analysis information of a person within a predetermined measurement period Based on the posture, information that associates the registered posture with temporal occupancy information of the registered posture within the measurement period is generated as analysis information.
本構成によれば、姿勢とその時間的占有率情報を対応付けた情報を解析情報として取得することが可能となり、情報を例えば、健康管理や業務管理に適用することも可能となる。 According to this configuration, it is possible to acquire information associating the posture with the temporal occupation rate information as analysis information, and it is possible to apply the information to, for example, health management or business management.
さらに、本発明の情報処理装置の一実施態様において、前記解析情報生成部は、予め定めた測定期間内における人物の行動解析情報を生成する構成であり、前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理部が分類した各撮影画像の分類登録姿勢に基づいて、該登録姿勢に対応付けられる行動態様と、前記測定期間内における該行動の時間的占有率を対応付けた情報を解析情報として生成する構成であることを特徴とする。 Furthermore, in an embodiment of the information processing apparatus of the present invention, the analysis information generation unit is configured to generate human behavior analysis information within a predetermined measurement period, and the imaging acquired within the measurement period Based on the classification registration posture of each captured image classified by the posture classification processing unit based on the image, the behavior mode associated with the registration posture is associated with the temporal occupation rate of the behavior within the measurement period. The configuration is characterized in that information is generated as analysis information.
本構成によれば、行動とその時間的占有率情報を対応付けた情報を解析情報として取得することが可能となり、情報を例えば生産性管理や業務管理に適用することも可能となる。 According to this configuration, it is possible to acquire information in which an action is associated with its temporal occupation rate information as analysis information, and the information can be applied to, for example, productivity management or business management.
さらに、本発明の情報処理装置の一実施態様において、前記記憶部は、複数の登録姿勢に対応する登録パラメータと、各登録姿勢に対応する行動情報を記録データとして有し、前記解析情報生成部は、前記測定期間内に取得されたフレーム画像に基づいて前記姿勢分類処理部が分類した各フレームの分類登録姿勢に基づいて、記憶部から登録姿勢対応の行動情報を取得し、取得した行動情報に基づいて、行動態様と前記測定期間内における該行動の時間的占有率情報を生成する構成であることを特徴とする。 Furthermore, in one embodiment of the information processing apparatus of the present invention, the storage unit includes, as recorded data, registration parameters corresponding to a plurality of registered postures and action information corresponding to the registered postures, and the analysis information generating unit Acquires action information corresponding to the registered posture from the storage unit based on the classification registration posture of each frame classified by the posture classification processing unit based on the frame image acquired within the measurement period, and the acquired behavior information On the basis of the behavior, it is a configuration that generates temporal occupancy information of the behavior within the measurement period.
本構成によれば、予め記憶部に登録した姿勢情報に行動情報を対応付けて記憶させる構成としたので、ユーザ固有の行動がある場合であってもこれらの行動情報を姿勢に対応付けて登録することで、ユーザに対応した固有の行動解析を行なうことが可能となる。 According to this configuration, since the behavior information is stored in association with the posture information registered in the storage unit in advance, even if there is a user-specific behavior, the behavior information is registered in association with the posture. This makes it possible to perform a unique behavior analysis corresponding to the user.
さらに、本発明の情報処理装置の一実施態様において、前記姿勢判定処理部は、前記撮影画像に含まれる人物画像の姿勢判定情報として、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を取得する構成であり、前記姿勢分類処理部は、前記姿勢判定情報と、前記記憶部に格納された複数の登録情報との比較を、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を適用して実行する構成であることを特徴とする。 Furthermore, in an embodiment of the information processing apparatus of the present invention, the posture determination processing unit is configured as a polygon set based on the outline of a person or a person configuration as posture determination information of a person image included in the captured image. It is a configuration for acquiring at least one of an ellipse, a center of gravity position, and an angle associated with a part, and the posture classification processing unit includes the posture determination information and a plurality of registration information stored in the storage unit. The comparison is characterized in that the comparison is executed by applying at least one of polygon information set based on the outline of the person, or an ellipse, centroid position, and angle associated with the constituent part of the person.
本構成によれば、画像データ事態の比較ではなく、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度などをパラメータとして比較処理を行なう構成であるので、データ量が削減され、処理後列を高めることが可能となる。 According to this configuration, instead of comparing image data situations, the comparison processing is performed using polygons set based on the outline of the person, or ellipses, centroid positions, angles, etc. associated with the constituent parts of the person as parameters. As a result, the amount of data is reduced, and the post-processing columns can be increased.
さらに、本発明の情報処理装置の一実施態様において、前記姿勢判定処理部は、前記撮影部の撮影する連続フレームから一部のフレームを選択し、該選択フレームの撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する構成であることを特徴とする。 Furthermore, in one embodiment of the information processing apparatus of the present invention, the posture determination processing unit selects a part of frames from the continuous frames photographed by the photographing unit, and converts the selected frame into a human image included in the photographed image of the selected frame. Based on this, the posture determination information is obtained.
本構成によれば、フレームを間欠的に処理する構成としたので、処理負担が軽減され、効率的な処理が可能となる。 According to this configuration, since the frame is processed intermittently, the processing load is reduced and efficient processing becomes possible.
さらに、本発明の情報処理装置の一実施態様において、前記撮影部は、前記情報出力部が情報を出力する表示画面に隣接して設けられ、撮影対象者の上半身を撮影範囲として設定した撮影を実行する構成であり、前記姿勢判定処理部は、前記撮影部の撮影画像に含まれる人物画像に基づいて、前記撮影対象者の頭部および胴体を分けて姿勢判定処理を実行する構成であることを特徴とする。 Furthermore, in an embodiment of the information processing apparatus of the present invention, the photographing unit is provided adjacent to a display screen on which the information output unit outputs information, and performs photographing with the upper body of the photographing subject set as a photographing range. The posture determination processing unit is configured to execute posture determination processing by dividing the head and torso of the subject to be photographed based on a person image included in a photographed image of the photographing unit. It is characterized by.
本構成によれば、撮影対象者の頭部および胴体を分けて姿勢判定処理を実行する構成としたので、より正確な姿勢判定が実現される。 According to this configuration, since the posture determination process is executed by dividing the head and torso of the person to be imaged, more accurate posture determination is realized.
さらに、本発明の情報処理装置の一実施態様において、前記姿勢判定処理部は、前記撮影対象者の頭部および胴体の各々に対応する楕円と、該楕円の長軸および短軸を求め、各楕円における長軸の垂直軸に対する傾きに基づいて姿勢を判定する処理を実行する構成であることを特徴とする。 Furthermore, in one embodiment of the information processing apparatus of the present invention, the posture determination processing unit obtains an ellipse corresponding to each of the head and torso of the subject and a major axis and a minor axis of the ellipse, The configuration is characterized in that the process of determining the posture is executed based on the inclination of the long axis of the ellipse with respect to the vertical axis.
本構成によれば、撮影対象者の頭部および胴体の各々に対応する楕円と、該楕円の長軸および短軸を求め、各楕円における長軸の垂直軸に対する傾きに基づいて姿勢を判定する構成としたので、より簡略かした処理アルゴリズムの実行に基づく姿勢判定が実現される。 According to this configuration, an ellipse corresponding to each of the subject's head and torso and the major and minor axes of the ellipse are obtained, and the posture is determined based on the inclination of the major axis to the vertical axis of each ellipse. Since the configuration is adopted, posture determination based on execution of a simplified processing algorithm is realized.
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、さらに、音声入力部を有し、前記解析情報生成部は、前記音声入力部から入力する音声情報に基づいて、解析情報を生成する構成であることを特徴とする。 Furthermore, in an embodiment of the information processing apparatus of the present invention, the information processing apparatus further includes a voice input unit, and the analysis information generation unit performs analysis based on voice information input from the voice input unit. It is the structure which produces | generates information, It is characterized by the above-mentioned.
本構成によれば、音声入力部から入力する音声情報に基づいて、解析情報を生成する構成としたので、例えば電話中、あるいは会話中などの行動を解析することができる。 According to this configuration, since the analysis information is generated based on the voice information input from the voice input unit, it is possible to analyze an action such as during a telephone call or during a conversation.
さらに、本発明の情報処理装置の一実施態様において、前記解析情報生成部は、前記姿勢分類処理部において分類された登録姿勢に基づいて、健康管理情報または生産性管理情報を生成する処理を実行する構成であり、前記情報出力部は、前記解析情報生成部の生成した健康管理情報または生産性管理情報を出力する構成であることを特徴とする。 Furthermore, in one embodiment of the information processing apparatus of the present invention, the analysis information generation unit executes a process of generating health management information or productivity management information based on the registered postures classified by the posture classification processing unit. The information output unit is configured to output the health management information or the productivity management information generated by the analysis information generation unit.
本構成によれば、登録姿勢に基づく健康管理情報または生産性管理情報を生成してユーザに提供する構成としたので、ユーザは、情報の活用範囲として、自己の健康管理や生産性管理を行なうことができる。 According to this configuration, since the health management information or the productivity management information based on the registered posture is generated and provided to the user, the user performs his / her own health management and productivity management as the information utilization range. be able to.
さらに、本発明の第2の側面は、対象領域を撮影する撮影ステップと、前記撮影ステップにおいて撮影した撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理ステップと、前記姿勢判定情報と、記憶部に格納された複数の登録姿勢に対応する姿勢判定情報としての登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理ステップと、前記姿勢分類処理ステップにおいて分類された登録姿勢に基づいて解析情報を生成する解析情報生成ステップと、前記解析情報生成ステップにおいて生成した解析情報を出力する情報出力ステップと、を有することを特徴とする情報処理方法にある。 Furthermore, the second aspect of the present invention is a shooting step of shooting a target area, a posture determination processing step of acquiring posture determination information based on a person image included in the shot image shot in the shooting step, The posture determination information is compared with registration information as posture determination information corresponding to a plurality of registered postures stored in the storage unit, and a registered posture having registration information similar to the posture determination information is included in the captured image. A posture classification processing step for classifying as a posture of a person to be classified, an analysis information generation step for generating analysis information based on the registered posture classified in the posture classification processing step, and output of the analysis information generated in the analysis information generation step And an information output method.
本構成によれば、多数の撮影フレーム画像を入力して姿勢解析を実行する場合、フレーム画像に含まれる人物画像を特定の限られた数の登録姿勢に分類して、分類登録姿勢に基づく解析を実行する構成としたので、処理効率が向上し、蓄積データ量の削減も実現される。また、登録姿勢に基づく解析情報の生成、ユーザに対する解析情報の提供も処理負担が軽減され効率的に行なうことが可能となる。 According to this configuration, when performing posture analysis by inputting a large number of captured frame images, the person images included in the frame image are classified into a specific limited number of registered postures, and analysis based on the classification registered posture is performed. Therefore, the processing efficiency is improved and the amount of stored data is also reduced. Also, the generation of analysis information based on the registered posture and the provision of analysis information to the user can be efficiently performed with a reduced processing burden.
さらに、本発明の情報処理方法の一実施態様において、前記解析情報生成ステップは、前記姿勢分類処理ステップにおいて分類された登録姿勢に対応して設定された評価判定情報に基づいて、前記撮影画像に含まれる人物の姿勢についての評価情報を生成するステップであることを特徴とする。 Furthermore, in one embodiment of the information processing method of the present invention, the analysis information generation step includes adding the captured image to the captured image based on the evaluation determination information set corresponding to the registered posture classified in the posture classification processing step. This is a step of generating evaluation information about the posture of the person included.
本構成によれば、ユーザに対するフィードバック情報として姿勢の評価情報を提供することが可能となり、ユーザは、評価情報に基づいて、姿勢の修正を行なうことが可能となる。 According to this configuration, posture evaluation information can be provided as feedback information to the user, and the user can correct the posture based on the evaluation information.
さらに、本発明の情報処理方法の一実施態様において、前記解析情報生成ステップは、予め定めた測定期間内における人物の姿勢解析情報を生成するステップであり、前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理ステップにおいて分類された各撮影画像の分類登録姿勢に基づいて、登録姿勢と、前記測定期間内における該登録姿勢の時間的占有率情報を対応付けた情報を解析情報として生成することを特徴とする。 Furthermore, in an embodiment of the information processing method of the present invention, the analysis information generation step is a step of generating posture analysis information of a person within a predetermined measurement period, and the imaging acquired within the measurement period Based on the classification registration posture of each captured image classified in the posture classification processing step based on the image, the information that associates the registration posture with the temporal occupancy information of the registration posture within the measurement period is analyzed information It is characterized by producing | generating as.
本構成によれば、姿勢とその時間的占有率情報を対応付けた情報を解析情報として取得することが可能となり、情報を例えば、健康管理や業務管理に適用することも可能となる。 According to this configuration, it is possible to acquire information associating the posture with the temporal occupation rate information as analysis information, and it is possible to apply the information to, for example, health management or business management.
さらに、本発明の情報処理方法の一実施態様において、前記解析情報生成ステップは、予め定めた測定期間内における人物の行動解析情報を生成するステップであり、前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理ステップにおいて分類された各撮影画像の分類登録姿勢に基づいて、該登録姿勢に対応付けられる行動態様と、前記測定期間内における該行動の時間的占有率を対応付けた情報を解析情報として生成することを特徴とする。 Furthermore, in an embodiment of the information processing method of the present invention, the analysis information generation step is a step of generating human behavior analysis information within a predetermined measurement period, and the imaging acquired within the measurement period Based on the classification registration posture of each captured image classified in the posture classification processing step based on the image, the behavior mode associated with the registration posture is associated with the temporal occupation rate of the behavior within the measurement period. The generated information is generated as analysis information.
本構成によれば、行動とその時間的占有率情報を対応付けた情報を解析情報として取得することが可能となり、情報を例えば生産性管理や業務管理に適用することも可能となる。 According to this configuration, it is possible to acquire information in which an action is associated with its temporal occupation rate information as analysis information, and the information can be applied to, for example, productivity management or business management.
さらに、本発明の情報処理方法の一実施態様において、前記姿勢判定処理ステップは、
前記撮影画像に含まれる人物画像の姿勢判定情報として、人物画像の姿勢判定パラメータとして、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を取得するステップであり、前記姿勢分類処理ステップは、前記姿勢判定情報と、前記記憶部に格納された複数の登録情報との比較を、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を適用して実行するステップであることを特徴とする。
Furthermore, in one embodiment of the information processing method of the present invention, the posture determination processing step includes:
As the posture determination information of the human image included in the photographed image, as the posture determination parameter of the human image, at least the polygon set based on the contour of the person, or the ellipse associated with the constituent part of the person, the barycentric position, and the angle A step of acquiring any information, wherein the posture classification processing step is a polygon set based on a contour of a person by comparing the posture determination information with a plurality of registered information stored in the storage unit Or a step executed by applying information on at least one of an ellipse, a gravity center position, and an angle associated with a constituent part of a person.
本構成によれば、画像データ事態の比較ではなく、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度などをパラメータとして比較処理を行なう構成であるので、データ量が削減され、処理後列を高めることが可能となる。 According to this configuration, instead of comparing image data situations, the comparison processing is performed using polygons set based on the outline of the person, or ellipses, centroid positions, angles, etc. associated with the constituent parts of the person as parameters. As a result, the amount of data is reduced, and the post-processing columns can be increased.
さらに、本発明の第3の側面は、姿勢解析処理を情報処理装置において実行させるコンピュータ・プログラムであり、対象領域を撮影する撮影ステップと、前記撮影ステップにおいて撮影した撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理ステップと、前記姿勢判定情報と、記憶部に格納された複数の登録姿勢に対応する姿勢判定情報としての登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理ステップと、前記姿勢分類処理ステップにおいて分類された登録姿勢に基づいて解析情報を生成する解析情報生成ステップと、前記解析情報生成ステップにおいて生成した解析情報を出力する情報出力ステップとを有することを特徴とするコンピュータ・プログラムにある。 Furthermore, a third aspect of the present invention is a computer program that causes an information processing apparatus to execute posture analysis processing, and includes a photographing step for photographing a target region, and a person image included in the photographed image photographed in the photographing step. Based on the posture determination processing step for acquiring posture determination information, the posture determination information, and registration information as posture determination information corresponding to a plurality of registered postures stored in the storage unit, the posture determination information A posture classification processing step for classifying a registered posture having registration information similar to that as a posture of a person included in the photographed image, and analysis information for generating analysis information based on the registered posture classified in the posture classification processing step A generation step, and an information output step for outputting the analysis information generated in the analysis information generation step. There is a computer program which is characterized the door.
本構成によれば、多数のフレーム画像を入力して姿勢解析を実行する場合、フレーム画像に含まれる人物画像を特定の限られた数の登録姿勢に分類して、分類登録姿勢に基づく解析を実行する構成としたので、処理効率が向上し、蓄積データ量の削減も実現される。また、登録姿勢に基づく解析情報の生成、ユーザに対する解析情報の提供も処理負担が軽減され効率的に行なうことが可能となる。 According to this configuration, when performing posture analysis by inputting a large number of frame images, the person images included in the frame image are classified into a specific limited number of registered postures, and analysis based on the classified registered postures is performed. Since it is configured to execute, the processing efficiency is improved and the amount of stored data is also reduced. Also, the generation of analysis information based on the registered posture and the provision of analysis information to the user can be efficiently performed with a reduced processing burden.
なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能なコンピュータシステムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、CDやFD、MOなどの記録媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータシステム上でプログラムに応じた処理が実現される。 Note that the computer program of the present invention is a recording medium provided in a computer-readable format for a computer system capable of executing various program codes, for example, a recording medium such as a CD, FD, or MO. A computer program that can be provided by a medium or a communication medium such as a network. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。 Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
本発明の構成によれば、カメラの撮影画像フレームに含まれる人物画像に基づいて、フレーム対応姿勢判定パラメータを取得し、記憶部に格納された複数の登録姿勢に対応する登録パラメータとの比較を実行して、フレーム対応姿勢判定パラメータに類似する登録パラメータを持つ登録姿勢を、撮影画像フレームに含まれる人物の姿勢として分類し、分類された登録姿勢に基づいて解析情報を生成する構成とした。本構成により、姿勢解析処理効率が向上し、蓄積データ量の削減が実現される。さらに、姿勢の評価情報、姿勢とその時間的占有率情報を対応付けた情報、行動とその時間的占有率情報を対応付けた情報などを解析情報として取得、提供することが可能となる。提供情報は、例えば健康管理、生産性管理や業務管理に適用可能である。 According to the configuration of the present invention, a frame-corresponding posture determination parameter is acquired based on a person image included in a captured image frame of a camera, and compared with registered parameters corresponding to a plurality of registered postures stored in the storage unit. The registered posture having the registration parameter similar to the frame-corresponding posture determination parameter is classified as the posture of the person included in the captured image frame, and the analysis information is generated based on the classified registered posture. With this configuration, posture analysis processing efficiency is improved, and a reduction in the amount of accumulated data is realized. Furthermore, posture evaluation information, information that associates posture with its temporal occupancy information, information that associates behavior with its temporal occupancy information, and the like can be acquired and provided as analysis information. The provided information can be applied to, for example, health management, productivity management, and business management.
以下、図面を参照しながら本発明の情報処理装置、および情報処理方法、並びにコンピュータ・プログラムの詳細について説明する。 Details of the information processing apparatus, information processing method, and computer program of the present invention will be described below with reference to the drawings.
まず、図1を参照して、本発明の情報処理装置の実行する処理の概要について説明する。図1に示すように、情報処理装置100は、ビデオカメラ101、およびマイク102を備え、ユーザ10を撮影した画像データおよび周囲の音声データを入力する。情報処理装置100は、ビデオカメラ101によって撮影される画像データと、マイク102の取得する音声データを入力して、ユーザの姿勢や行動を解析する。
First, an overview of processing executed by the information processing apparatus of the present invention will be described with reference to FIG. As illustrated in FIG. 1, the
情報処理装置100のハードディスクなどの記憶手段には、背景画像情報や、ユーザの複数の姿勢情報が登録されており、登録された姿勢情報と、入力画像の解析に基づくユーザの姿勢解析結果に基づいて、アラーム出力などの処理を行なう。画像解析によるユーザの姿勢情報は、情報処理装置100のディスプレイに設定された姿勢情報表示領域105に表示される。姿勢情報表示は、例えばユーザの撮影画像に所定の姿勢判定の可能なラインを重畳した表示や、ユーザの姿勢が良い状態にあるか悪い常態にあるかなどを判別可能としたインジケータ表示など、各種の態様で表示される。これらの具体的内容については後段で説明する。
Background image information and a plurality of user posture information are registered in a storage unit such as a hard disk of the
情報処理装置100は、さらに、ビデオカメラ101によって撮影される画像データに基づくユーザの姿勢解析を実行し、一定期間、例えば朝から夕方までの1日のワーキングタイムにおけるユーザの姿勢のサマリーを生成する。すなわち、オフィスにおいてユーザが1日仕事をしている間の姿勢の推移を蓄積し、どのような姿勢が多くとられているかなどのサマリーを生成する。また、情報処理装置100は、さらに、ビデオカメラ101によって撮影される画像データや、マイク102の取得する音声データの解析によって、ユーザの行動解析を実行する。例えばPCに対して情報入力を行なっている時間や、電話をしている時間などの一連のユーザの行動を解析する。
The
図2以下を参照して、本発明の情報処理装置の構成、および処理の詳細について説明する。図2は、本発明の情報処理装置の全体構成を示すブロック図である。なお、情報処理装置の実行するデータ処理は、情報処理装置の有するハードウェアと、コンピュータ・プログラムを適用することによって実行されるものであり、図2に示す図は、これらの各処理を処理機能別のブロックとして示したブロック図である。なお、情報処理装置のハードウェア構成の具体例については、後段で説明する。 Details of the configuration and processing of the information processing apparatus of the present invention will be described with reference to FIG. FIG. 2 is a block diagram showing the overall configuration of the information processing apparatus of the present invention. The data processing executed by the information processing apparatus is executed by applying the hardware of the information processing apparatus and a computer program. The diagram shown in FIG. It is the block diagram shown as another block. A specific example of the hardware configuration of the information processing apparatus will be described later.
カメラ101は、ユーザの画像を撮影する。マイク102は、ユーザの音声、その他の周囲の音声を取得する。入力手段201は、キーボード、マウスなどの入力手段である。入力情報解析部202は、カメラ101、マイク102を介して入力される情報に基づいて、ユーザの姿勢解析などを実行する。さらに、初期設定処理として実行されるユーザによる複数の姿勢の登録や、アラーム条件の登録などの処理を実行する。記憶部203は、これらの登録情報や、背景画像情報、カメラ101、マイク102を介して入力される情報に基づいて、入力情報解析部202が解析した結果データなどを格納する。
The
入力情報解析部202は、カメラ101、マイク102を介して入力される画像情報および音声情報に基づくデータ解析を実行して、例えば以下のような処理を実行する。
(1)入力画像の解析に基づくユーザの姿勢解析結果に基づいて、アラーム出力、出力手段(ディスプレイ)204に対する姿勢情報出力を行なう。
(2)画像データに基づくユーザの姿勢解析を実行し、一定期間におけるユーザの姿勢のサマリーを生成する。
(3)画像データや、音声データの解析によって、ユーザの行動解析を実行する。
これらの処理の詳細については、後段で説明する。
The input
(1) Based on the analysis result of the user based on the analysis of the input image, the alarm output and the attitude information output to the output means (display) 204 are performed.
(2) A user posture analysis based on the image data is executed, and a summary of the user posture over a certain period is generated.
(3) A user behavior analysis is executed by analyzing image data and audio data.
Details of these processes will be described later.
出力手段(ディスプレイ)204は、入力情報解析部202の生成した姿勢情報出力を行なう。
The output means (display) 204 outputs the posture information generated by the input
図3に本発明の情報処理装置の実行する処理の全体シーケンスを説明するフローチャートを示す。まず、ステップS11において初期設定を実行する。初期設定処理は、ユーザのいない背景画像の取得、アラーム条件設定処理、さらに、姿勢サマリーや、行動解析などの解析を行なう期間の設定などの処理である。ユーザのいない背景画像は、ユーザの撮影画像からユーザのみを抽出する際に利用される。 FIG. 3 shows a flowchart for explaining the overall sequence of processing executed by the information processing apparatus of the present invention. First, initial setting is performed in step S11. The initial setting processing is processing such as acquisition of a background image without a user, alarm condition setting processing, and setting of a period for performing analysis such as posture summary and behavior analysis. The background image without the user is used when extracting only the user from the captured image of the user.
ステップS12において、複数の姿勢登録処理が行なわれる。これは、予め複数の姿勢をデータベースとしての記憶手段203に登録する処理である。この姿勢登録は、ユーザの様々な姿勢をカメラ102が撮影し、所定の姿勢の際に、ユーザが入力手段201を介して登録コマンドを入力することによって行なわれる。
In step S12, a plurality of posture registration processes are performed. This is a process of registering a plurality of postures in advance in the storage means 203 as a database. This posture registration is performed when the
これらの処理の終了後、ステップS13において、ユーザのモニタリングが開始され、
(1)入力画像の解析に基づくユーザの姿勢解析結果に基づいて、アラーム出力、出力手段(ディスプレイ)204に対する姿勢情報出力、
(2)画像データに基づくユーザの姿勢解析を実行し、一定期間におけるユーザの姿勢のサマリーを生成、
(3)画像データや、音声データの解析によって、ユーザの行動解析、
これらの処理が実行される。
After completion of these processes, user monitoring is started in step S13.
(1) Based on the user's posture analysis result based on the analysis of the input image, alarm output, posture information output to the output means (display) 204,
(2) Execute user posture analysis based on image data and generate a summary of user posture over a certain period of time,
(3) Analysis of user behavior by analysis of image data and audio data,
These processes are executed.
ステップS12における姿勢登録処理の具体例について、図4以下を参照して説明する。例えば、図4(a)〜(d)に示すような様々な異なるポーズをユーザがとり、これらの姿勢を登録姿勢情報として設定するものとする。図4(a)〜(d)は、カメラ101による撮影画像を示している。入力情報解析部202は、これらの撮影画像に基づいて、記憶手段に各姿勢に対応するパラメータを登録する。
A specific example of the posture registration process in step S12 will be described with reference to FIG. For example, assume that the user takes various different poses as shown in FIGS. 4A to 4D and sets these postures as registered posture information. 4A to 4D show images taken by the
登録されるパラメータの例を図5に示す。図5に示すように、ユーザによる登録姿勢(a)〜(d)の各々に対応して、以下の各データが登録される。
*頭部垂直長(xh)
*胴体垂直長(xt)
*全体垂直長(xa)
*頭部重心位置(x1,y1)
*胴体重心位置(x2,y2)
*全体重心位置(x3、Y3)
*垂直軸からの頭部の傾き(α度)
*垂直軸からの胴体の傾き(β度)
*垂直軸からの全体の傾き(δ度)
*垂直軸からの肩の傾き(γ度)
*ポリゴン頂点位置((px1、py1)、(px2、py2)・・・、(pxn、pyn))
*評価判定情報(Good,Badなど)
これらのデータがユーザの登録姿勢情報として記憶部203に格納される。
An example of registered parameters is shown in FIG. As shown in FIG. 5, the following data is registered corresponding to each of the registered postures (a) to (d) by the user.
* Head vertical length (xh)
* Vertical fuselage length (xt)
* Overall vertical length (xa)
* Head center of gravity (x1, y1)
* Body center of gravity (x2, y2)
* Overall center of gravity (x3, Y3)
* Head tilt from the vertical axis (α degrees)
* Body tilt from the vertical axis (β degrees)
* Overall inclination from vertical axis (δ degrees)
* Inclination of shoulder from vertical axis (γ degree)
* Polygon vertex position ((px1, py1), (px2, py2) ..., (pxn, pyn))
* Evaluation judgment information (Good, Bad, etc.)
These data are stored in the
図6に上記各登録情報の具体的例を示す。頭部重心位置(x1,y1)は、図6に示す重心221、胴体重心位置(x2,y2,)は、図6に示す重心222、垂直軸からの頭部の傾き(α度)は、図6に示す垂直軸230と、頭部の傾きに基づいて生成されるライン231とのなす角[α]、垂直軸からの胴体の傾き(β度)は、図6に示す垂直軸230と、胴体の傾きに基づいて生成されるライン232とのなす角[β]、垂直軸からの全体の傾き(δ度)は、図6に示す垂直軸230と全体の傾きに基づいて生成されるライン234とのなす角〔δ〕、垂直軸からの肩の傾き(γ度)は、図6に示す垂直軸230と、肩の傾きに基づいて生成されるライン233とのなす角[γ]に相当する。なお、これらのデータの算出手法の詳細については、データ解析処理の欄において説明する。
FIG. 6 shows a specific example of each of the registration information. The head center-of-gravity position (x1, y1) is the center of
これらの各パラメータの他に、良い姿勢(Good)であるか悪い姿勢(Bad)であるかなどを示す評価判定情報を登録する。これは、ユーザの判断に基づいて入力することができる。あるいは、予め良い姿勢であると判断されるパラメータを持つ良い模範姿勢対応のデータを情報処理装置内に記録済みデータとして保持し、この模範姿勢データと、ユーザによって新たに登録された姿勢データとを比較照合して、模範姿勢データに近いパラメータを持つ登録データを良い姿勢(Good)の登録情報とし、模範姿勢データと大きく異なるパラメータを持つ登録データを悪い姿勢(Bad)の登録情報とする設定としてもよい。 In addition to these parameters, evaluation determination information indicating whether the posture is good (Good) or bad (Bad) is registered. This can be input based on user judgment. Alternatively, data corresponding to a good model posture having a parameter determined to be a good posture in advance is stored as recorded data in the information processing apparatus, and this model posture data and posture data newly registered by the user are stored. As a setting for performing comparison and collation, registration data having parameters close to the model posture data is registered as good posture (Good) registration information, and registration data having parameters significantly different from the model posture data is registered as bad posture (Bad) registration information. Also good.
次に、図2に示す情報解析部202の具体的な構成および処理について、図7以下を参照して説明する。図7は、入力情報解析部202の具体的な構成を示すブロック図である。
Next, a specific configuration and processing of the
カメラ101から入力されたユーザを含む撮影画像データは、背景画像情報削除処理部251に入力され、背景画像情報削除処理が実行される。先に図3を参照して説明したステップS11の初期設定処理において、撮影され記憶部203に格納済みのユーザのいない背景画像と、カメラ101から入力されたユーザを含む撮影画像データとを比較して、両画像の一致画像部を削除することで背景画像情報削除処理が実行される。
The captured image data including the user input from the
なお、さらに、例えば目的とする認識対象オブジェクトである人物のスキン(皮膚)領域を抽出するために、カラーフィルタリングを適用する構成としてもよい。スキン検出アルゴリズムとしては、例えば文献、[A. Jaimes. Conceptual Structures and Computational Methods for Indexing and Organization of Visual Information, Ph.D. Thesis, Department of Electrical Engineering, Columbia University, February 2003]に記述されたアルゴリズムをベースとすることが可能である。 Further, for example, color filtering may be applied in order to extract a human skin (skin) region that is a target recognition target object. As the skin detection algorithm, for example, the algorithm described in the literature [A. Jaimes. Conceptual Structures and Computational Methods for Indexing and Organization of Visual Information, Ph.D. Thesis, Department of Electrical Engineering, Columbia University, February 2003] is used. It can be based.
スキン領域抽出アルゴリズムについて説明する。まず、入力する各画像フレーム[fi]の画素値データをHSVカラー空間座標へ展開する。HSVカラー空間座標は、色相(H)、彩度(S)、輝度(V)の3次元座標である。このHSV空間において、特定の領域がスキン(皮膚)のカラー領域に対応する。 The skin area extraction algorithm will be described. First, the pixel value data of each input image frame [f i ] is expanded into HSV color space coordinates. The HSV color space coordinates are three-dimensional coordinates of hue (H), saturation (S), and luminance (V). In the HSV space, a specific area corresponds to a skin color area.
各フレーム[fi]の画素値データ中、HSVカラー空間座標におけるスキン(皮膚)のカラー領域に対応する画素をスキン画像領域として判定し、HSVカラー空間座標におけるスキン(皮膚)のカラー領域以外に属する画素データは、スキン領域以外であると判定する。 Among the pixel value data of each frame [f i ], a pixel corresponding to the color area of the skin (skin) in the HSV color space coordinates is determined as a skin image area, and other than the color area of the skin (skin) in the HSV color space coordinates. The pixel data to which it belongs is determined to be outside the skin area.
上述のカラーフィルタリングによるスキン領域の抽出は、カメラ101から入力する各フレーム[fi]各々に対して実行される。ただし、このカラーフィルタリング処理によっても、人のスキン(皮膚)と類似する画素値を持つ例えば壁やテーブルなどスキン(皮膚)領域以外の領域がスキン(皮膚)領域と判断される場合がある。
The extraction of the skin region by the color filtering described above is executed for each frame [f i ] input from the
これを避けるためには、カラーフィルタリングによって抽出されたスキン領域をグルーピングし、スキン領域として判定された隣接する画素の集合をグループとして設定し、その境界を設定した境界領域としてのバウンディングボックスSbbを検出する。なお、一定の大きさより小さい領域は排除する。次に、バウンディングボックスSbbと同一の中心を設定したバウンディングボックスSbbの近接領域を含むアクティブバウンディングボックスAbbを設定し、このアクティブバウンディングボックスAbb内においてフレーム間で動きが検出されているか否かを判定する。動きの有無は、現フレームと過去に数フレーム遡ったフレーム間の差分情報に基づいて判定可能である。この処理によって動きのある領域がスキン領域、すなわち人物であると判定する。 In order to avoid this, skin areas extracted by color filtering are grouped, a set of adjacent pixels determined as the skin area is set as a group, and a bounding box S bb as a boundary area in which the boundary is set is set. To detect. Note that areas smaller than a certain size are excluded. Then, set the active bounding box A bb comprising a contiguous area of the bounding box S bb and bounding boxes S bb set to the same center, or motion between frames is detected within this active bounding box A bb not Determine whether. The presence / absence of motion can be determined based on difference information between the current frame and a frame that is several frames back in the past. By this processing, it is determined that the region with movement is a skin region, that is, a person.
背景画像情報削除処理部251における背景画像情報削除処理が済んだ画像データは、画像処理部252に入力されて、人物(ユーザ)の画像を示すピクセル集合を明確にするための処理がなされる。具体手的には、スムージング処理、クロージング処理、ピクセルグループ化処理などが実行される。これは、背景画像削除処理の過程で誤って削除されてしまった人物の構成画素などを補填する処理や、輪郭をなめらかにするスムージング処理や、とびとびの画素を1つの人物を構成するようにグループ化する処理として実行される。この処理によって、少なくとも人物(ユーザ)の輪郭が明確になった画像データが取得される。
The image data that has undergone the background image information deletion processing in the background image information
次に、画像処理によって取得された人物(ユーザ)画像データは、姿勢判定処理部253に入力される。姿勢判定処理部253では、人物画像に基づく姿勢判定処理が実行される。
Next, the person (user) image data acquired by the image processing is input to the posture
姿勢判定処理部253において実行される人物画像に基づく姿勢判定処理の詳細シーケンスについて、図8に示すフローチャートを参照して説明する。まず、姿勢判定処理部253は、ステップS101において、重心抽出処理を実行し、ステップS102において、重心からの放射状線を設定する。これらの処理について、図9を参照して説明する。
A detailed sequence of the posture determination process based on the person image executed in the posture
図9(a)は撮影画像から得られた人物(ユーザ)画像であるとする。この画像データに基づいて、図9(b)に示す人物の重心点261が算出される。この重心点241は、人物領域の占める画素分布に基づいて算出される。次にこの重心点241から複数の放射状の線が設定される。図9(b)に示す例では、水平、垂直ラインおよびこれらのラインから45度の角度を持つラインを設定した例であり、4本のラインが設定される。
FIG. 9A is a person (user) image obtained from a captured image. Based on this image data, the center of
次に、図8に示すフローのステップS103において、放射状線のオブジェクト短部の点を検出し、ステップS104において、この端部を結んだポリゴン(多角形)を生成する。図9(b)に示すポリゴン(多角形)262である。 Next, in step S103 of the flow shown in FIG. 8, the point of the object short portion of the radial line is detected, and in step S104, a polygon (polygon) connecting the end portions is generated. This is the polygon (polygon) 262 shown in FIG.
次に、ステップS105において、人物画像データの構成画素数に基づくヒストグラムを水平(X)軸、および垂直(Y)軸、各々について生成する。図10(c)にヒストグラムの例を示す。水平(X)軸、および垂直(Y)軸、各々について画素数に基づくヒストグラム263,264が生成される。
Next, in step S105, a histogram based on the number of constituent pixels of the human image data is generated for each of the horizontal (X) axis and the vertical (Y) axis. FIG. 10C shows an example of a histogram.
次に、ステップS106において、垂直(Y)軸ヒストグラムの最小値ポイントを検出する。図10(c)に示す例では、ポイント265である。ステップS107において、垂直軸ヒストグラムの最小部を首と判定して頭部、および胴体部を識別する。すなわち、図10(c)に示す例では、ポイント265の位置を人物の首を構成するポイントであると判定し、その上部を頭部、下部を胴体と判断する。
Next, in step S106, the minimum value point of the vertical (Y) axis histogram is detected. In the example shown in FIG. In step S107, the minimum part of the vertical axis histogram is determined to be the neck, and the head and torso parts are identified. That is, in the example shown in FIG. 10C, it is determined that the position of the
次に、ステップS108において、頭部、胴体の各々に楕円を対応付けて、対応付けた楕円の長軸、短軸の長さを算出し、頭部、胴体の重心を求め、さらに、各楕円に基づいて、頭部、胴体の各々の傾き、肩の傾き(垂直軸または水平軸からの傾き)をめる。 Next, in step S108, an ellipse is associated with each of the head and torso, the major and minor axes of the associated ellipse are calculated, the center of gravity of the head and torso is obtained, and each ellipse is further calculated. Based on the above, the inclination of each of the head and torso and the inclination of the shoulder (inclination from the vertical axis or the horizontal axis) is obtained.
図11を参照して、この処理について説明する。まず、図11(d)に示すように、頭部、胴体の各々に楕円271,272を対応付ける。この処理は、例えば、頭部対応楕円271は、頭部の輪郭に内接する楕円、あるいは外接する楕円を設定することによって行なわれる。胴体についても胴体の輪郭に内接する楕円、あるいは外接する楕円を設定することによって胴体対応楕円272が設定される。
This process will be described with reference to FIG. First, as shown in FIG. 11D,
次に、頭部、胴体の各々に対応付けた楕円271,272の長軸、短軸を設定し、これらの交点を頭部、胴体の重心273,274として求める。さらに、各楕円271,272に基づいて、頭部、胴体の各々の傾き(垂直軸または水平軸からの傾き)を求め、さらに、人物の輪郭に基づいて肩の傾きを示すライン275に基づいて、肩の傾き(垂直軸または水平軸からの傾き)を求める。
Next, the major axis and the minor axis of the
これらの各パラメータについて、図12を参照して説明する。図12(e)には、頭部、胴体の各々に対応付けた楕円271,272の長軸、短軸の交点としての頭部、胴体の重心273,274を示し、さらに、垂直軸290に対する頭部の傾き[α]、胴体の傾き[β]、肩の傾き[γ]を示している。ライン291は、頭部に対応付けられた楕円の長軸方向に延びるラインである。ライン292は、胴体に対応付けられた楕円の長軸方向に延びるラインである。ライン293は、人物の輪郭に基づいて求められる肩の傾きを示すラインである。
同様に、頭部と胴体の両方に対応付けた楕円276と重心277が算出され、楕円276について、その長軸方向に延びるライン294を得、垂直軸290に対する全体の傾き〔δ〕が得られる。
Each of these parameters will be described with reference to FIG. FIG. 12E shows the center of
Similarly, an
このようにして、
*頭部垂直長(xh)
*胴体垂直長(xt)
*全体垂直長(xa)
*頭部重心位置(x1,y1)
*胴体重心位置(x2,y2,)
*全体重心位置(x3、Y3)
*垂直軸からの頭部の傾き(α度)
*垂直軸からの胴体の傾き(β度)
*垂直軸からの全体の傾き(δ度)
*垂直軸からの肩の傾き(γ度)
*ポリゴン頂点位置((px1、py1)、(px2、py2)・・・、(pxn、pyn))
これらのデータがユーザの姿勢に対応するパラメータとして取得される。
In this way
* Head vertical length (xh)
* Vertical fuselage length (xt)
* Overall vertical length (xa)
* Head center of gravity (x1, y1)
* Body center of gravity (x2, y2,)
* Overall center of gravity (x3, Y3)
* Head tilt from the vertical axis (α degrees)
* Body tilt from the vertical axis (β degrees)
* Overall inclination from vertical axis (δ degrees)
* Inclination of shoulder from vertical axis (γ degree)
* Polygon vertex position ((px1, py1), (px2, py2) ..., (pxn, pyn))
These data are acquired as parameters corresponding to the user's posture.
なお、先に、図5、図6を参照して説明したように、これらのパラメータは、登録姿勢情報のパラメータと同様のパラメータであり、図3に示すフローチャートのステップS12の姿勢登録処理では、上述したと同様の処理が実行されて、各登録姿勢に対応するパラメータの取得が行なわれ記憶部203に格納される。なお、登録姿勢情報には、これらのパラメータの他、図5を参照して説明したように、[Good]、[Bad]などの評価判定情報も含まれる。
As described above with reference to FIGS. 5 and 6, these parameters are the same as the parameters of the registered posture information. In the posture registration process in step S <b> 12 of the flowchart shown in FIG. 3, The same processing as described above is executed, and parameters corresponding to each registered posture are acquired and stored in the
図7に示す入力情報解析部202の構成において、データ登録部254は、各登録姿勢についてのパラメータを姿勢判定処理部253から受領して、入力手段からの登録コマンドの入力に基づいて、上述した各パラメータと、入力手段201から入力される評価判定情報を各登録姿勢情報の登録情報として記憶部203に記録する。
In the configuration of the input
図3に示すフローチャートのステップS13の情報入力、解析処理においても、ユーザの撮影画像について、図7に示す背景画像情報削除処理部251における背景画像情報削除処理、画像処理部252における人物(ユーザ)画像データの取得、姿勢判定処理部253における姿勢判定処理に基づいて算出される姿勢判定パラメータ、すなわち、
*頭部垂直長(xh)
*胴体垂直長(xt)
*全体垂直長(xa)
*頭部重心位置(x1,y1)
*胴体重心位置(x2,y2,)
*全体重心位置(x3、Y3)
*垂直軸からの頭部の傾き(α度)
*垂直軸からの胴体の傾き(β度)
*垂直軸からの全体の傾き(δ度)
*垂直軸からの肩の傾き(γ度)
*ポリゴン頂点位置((px1、py1)、(px2、py2)・・・、(pxn、pyn))
これらの姿勢判定パラメータの取得が実行される。
Also in the information input and analysis processing in step S13 of the flowchart shown in FIG. 3, for the user's captured image, the background image information deletion processing in the background image information
* Head vertical length (xh)
* Vertical fuselage length (xt)
* Overall vertical length (xa)
* Head center of gravity (x1, y1)
* Body center of gravity (x2, y2,)
* Overall center of gravity (x3, Y3)
* Head tilt from the vertical axis (α degrees)
* Body tilt from the vertical axis (β degrees)
* Overall inclination from vertical axis (δ degrees)
* Inclination of shoulder from vertical axis (γ degree)
* Polygon vertex position ((px1, py1), (px2, py2) ..., (pxn, pyn))
Acquisition of these posture determination parameters is executed.
なお、図7に示す入力情報解析部202の姿勢判定部253は、カメラ101から入力されるフレーム画像について、予め定めた間隔でフレームを選択して、上述の姿勢判定に基づく姿勢判定パラメータ算出処理を実行する。算出された姿勢判定パラメータは、姿勢分類処理部255に出力される。
Note that the
姿勢分類処理部255は、所定フレーム間隔で算出されるフレーム対応の姿勢判定パラメータを入力する。すなわち、姿勢判定処理部253における姿勢判定処理に基づいて算出される姿勢判定パラメータを所定フレーム間隔で入力する。
The posture
姿勢分類処理部255は、入力するフレーム対応の姿勢判定パラメータと、登録済みの登録姿勢情報に対応するパラメータ、すなわち、先に図5を参照して説明した登録姿勢情報に対応するパラメータとの比較を実行する。このパラメータ比較処理において、入力するフレーム対応の姿勢判定パラメータに最も近いパラメータ値を持つ登録姿勢情報を、そのフレームにおけるユーザの姿勢であると判定する。
The posture
さらに、姿勢分類処理部255の姿勢分類情報は、フィードバック姿勢解析情報生成部256に出力される。フィードバック姿勢解析情報生成部256は、類似パラメータを持つと判定された登録姿勢情報に対応して設定された評価判定情報が良い姿勢[Good]として設定されているか、悪い姿勢[Bad]として登録されているかを判定し、これらの評価判定情報を情報出力部258を介して、出力手段(ディスプレイ)204に出力する。
Further, the posture classification information of the posture
図13に、評価判定情報の出力例を示す。図13は、ユーザの利用する情報処理装置のディスプレイであり、ディスプレイの部分領域に姿勢インジケータ301が表示される。姿勢インジケータ301はスライダ302が表示され、モニタリングされているユーザの現在の姿勢が良い[Good]であるか悪い[Bad]であるかを示す設定となっている。姿勢インジケータ301の中央部領域が良い[Good]姿勢であることを示し、姿勢インジケータ301の両サイドが悪い[Bad]姿勢であることを示している。フィードバック姿勢解析情報生成部256は、類似パラメータを持つと判定された登録姿勢情報に対応して設定された評価判定情報が良い姿勢[Good]として設定されているか、悪い姿勢[Bad]として登録されているかの評価判定情報に基づいて、スライダ302を左右に移動させて表示する。
FIG. 13 shows an output example of the evaluation determination information. FIG. 13 shows a display of an information processing apparatus used by a user, and a
ユーザは、このインジケータの表示を観察することで、自分の姿勢が良いか悪いかをリアルタイムに確認することができる。また、予め定めたアラーム設定条件によって、情報処理装置のスピーカを介する警告音によるアラームや、ディスプレイに対するアラーム表示などを行なう構成としてもよい。 The user can confirm in real time whether his / her posture is good or bad by observing the display of the indicator. Moreover, it is good also as a structure which performs the alarm by the warning sound through the speaker of information processing apparatus, the alarm display with respect to a display, etc. according to a predetermined alarm setting condition.
ユーザは、先に、図3のフローにおけるステップS11の初期設定において、例えば、予め定めた時間以上、悪いと判定される姿勢が継続した場合にアラームを出力するなどのアラーム条件を設定し、記憶部203に登録情報を格納する。フィードバック姿勢解析情報生成部256は、このアラーム条件と、ユーザの画像解析による姿勢検出情報を比較して、アラーム出力条件を満たすか否かを判定して、アラーム出力条件を満たすと判断した場合は、情報出力部258を介してアラーム出力を実行する。
In the initial setting in step S11 in the flow of FIG. 3, the user first sets and stores an alarm condition such as outputting an alarm when a posture determined to be bad continues for a predetermined time or longer, for example. The registration information is stored in the
図14を参照して、姿勢分類処理部255と、フィードバック姿勢解析情報生成部256の実行する処理を中心とした処理シーケンスについて説明する。ステップS301においてモニタ画像に基づくユーザ検出処理がなされ、ステップS302において、ユーザ検出情報に基づく姿勢判定パラメータが選択フレームに基づいて求められる。これらの処理は、姿勢判定処理部253の処理として実行される。
With reference to FIG. 14, a processing sequence centering on processing executed by the posture
姿勢分類処理部255は、ステップS303において、姿勢判定処理部253から入力するフレーム対応の姿勢判定パラメータと、登録済みの登録姿勢情報に対応するパラメータ、すなわち、先に図5を参照して説明した登録姿勢情報に対応するパラメータとの比較を実行する。
At step S303, the posture
このパラメータ比較処理において、入力するフレーム対応の姿勢判定パラメータに最も近いパラメータ値を持つ登録姿勢情報を、そのフレームにおけるユーザの姿勢であると判定する。 In this parameter comparison process, it is determined that the registered posture information having the parameter value closest to the input posture determination parameter corresponding to the frame is the posture of the user in the frame.
ステップS304では、フィードバック姿勢解析情報生成部256は、類似パラメータを持つと判定された登録姿勢情報に対応して設定された評価判定情報が良い姿勢[Good]として設定されているか、悪い姿勢[Bad]として登録されているかを判定し、これらの評価判定情報に基づいて、出力手段(ディスプレイ)204に提示された姿勢インジケータ301(図13参照)のスライダ302を左右に移動させて表示する。
In step S304, the feedback posture analysis
さらに、ステップS305において、フィードバック姿勢解析情報生成部255は、ユーザによって予め設定されたアラーム条件と、ユーザの画像解析による姿勢検出情報を比較して、アラーム出力条件を満たすか否かを判定する。アラーム出力条件を満たすと判断した場合は、ステップS306において、情報出力部258を介してアラーム出力を実行する。
In step S305, the feedback posture analysis
このように、ユーザは、このインジケータの表示を観察することで、自分の姿勢が良いか悪いかをリアルタイムに確認することができ、また、アラームによって悪い姿勢であることが通知され、姿勢を正すことが可能となる。 In this way, the user can confirm in real time whether his / her posture is good or not by observing the display of this indicator, and is notified that the posture is bad by an alarm and corrects his / her posture. It becomes possible.
なお、出力手段(ディスプレイ)204に出力する表示は、図13を参照して説明したインジケータに限らず、例えば、先に図12等を参照して説明した胴体や頭、肩の傾きを示すラインをユーザの画像に重畳させて表示する構成としてもよい。例えば、図15に示すように、姿勢情報表示部312に、先に図12等を参照して説明した胴体や頭、肩の傾きを示すラインをユーザの画像に重畳させて表示する。ユーザは、この表示データを見るこことで、自分の姿勢の現在の状況を明確に知ることが可能となる。
Note that the display output to the output means (display) 204 is not limited to the indicator described with reference to FIG. 13, for example, a line indicating the inclination of the trunk, head, and shoulder described above with reference to FIG. 12 and the like. It is good also as a structure which superimposes and displays on a user's image. For example, as shown in FIG. 15, the posture
次に図7に示す入力情報解析部202における姿勢解析情報生成部257の処理について説明する。姿勢解析情報生成部257は、姿勢解析情報の生成処理と、行動解析情報の生成処理を実行する。まず、姿勢解析情報生成処理について説明する。
Next, processing of the posture analysis
姿勢解析情報生成部257の生成する姿勢解析情報の一例を図16に示す。図16に示す姿勢解析情報は、あるユーザの1日のワーキングタイムにおける姿勢の種類と、その姿勢をとっている時間を表として示した姿勢解析情報である。すなわち測定時間を2005、8、12のAM10:00〜PM5:30として、その間にカメラ101を介して取得されるユーザの画像データについて、所定フレーム間隔で処理を実行し、選択フレームの姿勢判定パラメータを求め、登録姿勢情報の登録パラメータとの比較を行い、最も類似するパラメータを持つ登録姿勢を選択して、測定フレーム間隔において、その登録姿勢が保持されたものとして判定して、姿勢の時間の推移に伴う履歴を取得する。この情報を解析することで1日のユーザの姿勢分布を算出し、図16に示すような姿勢解析サマリーが生成される。
An example of posture analysis information generated by the posture analysis
図16に示すデータは、ユーザは2005、8、12のAM10:00〜PM5:30の期間において、(a)に示す姿勢を40%、(b)に示す姿勢を20%、(c)に示す姿勢を25%、(d)に示す姿勢を15%していたことを示す情報である。ユーザは、これらの姿勢情報サマリーを見ることで、1日の姿勢状況を容易に把握することができる。 In the data shown in FIG. 16, the user shows that the posture shown in (a) is 40%, the posture shown in (b) is 20%, and (c) in the period of AM10: 0 to PM5: 30 of 2005, 8, and 12. This is information indicating that the posture shown is 25% and the posture shown in (d) is 15%. By viewing these posture information summaries, the user can easily grasp the posture status of the day.
図17に示すフローチャートを参照して、姿勢解析情報生成部257の実行する姿勢解析処理を中心とした処理シーケンスについて説明する。ステップS401においてモニタ画像に基づくユーザ検出処理がなされ、ステップS402において、ユーザ検出情報に基づく姿勢判定パラメータが選択フレームに基づいて求められる。これらの処理は、姿勢判定処理部253の処理として実行される。
With reference to the flowchart shown in FIG. 17, a processing sequence centering on the posture analysis processing executed by the posture analysis
次に、ステップS403において、姿勢分類処理部255は、姿勢判定処理部253から入力するフレーム対応の姿勢判定パラメータと、登録済みの登録姿勢情報に対応するパラメータ、すなわち、先に図5を参照して説明した登録姿勢情報に対応するパラメータとの比較を実行し、入力するフレーム対応の姿勢判定パラメータに最も近いパラメータ値を持つ登録姿勢情報を、そのフレームにおけるユーザの姿勢であると判定する。
Next, in step S403, the posture
ステップS404以降が、姿勢解析情報生成部257の処理であり、まず、ステップS404において、姿勢分類処理部255が選択した登録姿勢情報を姿勢解析情報(サマリー)生成用データとして登録する。例えば、姿勢判定パラメータを取得するフレーム時間間隔が1分であれば、各フレームにおいて選択された登録姿勢情報に相当する姿勢が1分継続しているものとしてデータ登録する。
Step S404 and subsequent steps are processing of the posture analysis
次に、ステップS405において、予め定めた姿勢解析情報の測定時間T1が経過したか否かを判定する。例えばAM10:00〜PM:5:00などの測定時間が設定される。測定開始からの経過時間T1(例えば7時間)が経過した場合は、測定を終了し、ステップS407に進む。測定時間が残っている場合は、ステップS406において、測定間隔[t]が経過したか否かを判定する。これは、姿勢判定パラメータを取得するフレーム時間間隔に相当する。姿勢解析情報の測定時間T1や、姿勢判定パラメータを取得するフレーム時間間隔tは、ユーザによる初期設定において設定される。 Next, in step S405, it is determined whether or not a predetermined measurement time T1 of posture analysis information has elapsed. For example, a measurement time such as AM 10:00 to PM: 5:00 is set. If an elapsed time T1 (for example, 7 hours) has elapsed since the start of measurement, the measurement is terminated and the process proceeds to step S407. If the measurement time remains, it is determined in step S406 whether the measurement interval [t] has elapsed. This corresponds to a frame time interval for acquiring the posture determination parameter. The measurement time T1 of posture analysis information and the frame time interval t for obtaining posture determination parameters are set in the initial setting by the user.
ステップS406において、測定間隔[t]が経過した場合は、その時点のフレームに基づいて、ステップS401〜S404の処理が実行され、姿勢解析情報(サマリー)生成用データとして登録する。ステップS405において、予め定めた姿勢解析情報の測定時間T1が経過したと判定されると、測定を終了し、ステップS407に進む。 If the measurement interval [t] has elapsed in step S406, the processing in steps S401 to S404 is executed based on the frame at that time, and registered as posture analysis information (summary) generation data. If it is determined in step S405 that the predetermined posture analysis information measurement time T1 has elapsed, the measurement ends, and the process proceeds to step S407.
ステップS407では、姿勢解析情報(サマリ−)を生成し、記憶部203に記憶する。姿勢解析情報(サマリ−)は、例えば図16を参照して説明した解析情報である。ステップS408において、入力手段201を介してユーザからの姿勢解析情報出力要求があったと判定されると、ステップS409において、図7に示す情報出力部258を介して出力手段(ディスプレイ)204に解析情報(例えば図16に示す解析情報)を出力する。
In step S407, posture analysis information (summary) is generated and stored in the
次に、姿勢解析情報生成部257の実行する行動解析処理について説明する。姿勢解析情報生成部257の実行する行動解析処理は、カメラ101によって撮影されるユーザの画像、およびマイク102によって取得される音声情報に基づいて実行される。
Next, behavior analysis processing executed by the posture analysis
例えば登録姿勢情報として、図18に示すように、図5を参照して説明した登録姿勢情報に、さらに行動情報を登録する。(a)に示す姿勢の場合は、キーボード操作などのPCの操作を行なっている行動状態であり、(b)に示す姿勢状態は休憩状態であるなどである。 For example, as the registered posture information, as shown in FIG. 18, action information is further registered in the registered posture information described with reference to FIG. The posture shown in (a) is an action state in which a PC operation such as a keyboard operation is performed, and the posture state shown in (b) is a resting state.
カメラ101によって撮影されるユーザの画像に基づく姿勢解析処理によって取得される姿勢判定パラメータに最も類似するパラメータを持つユーザの登録姿勢情報に基づいて、ユーザの作業を判定する。この判定処理によって、前述の姿勢解析情報と同様、例えば1日におけるユーザの行動解析情報が得られる。なお、この行動解析においては、マイク102によって取得される音圧情報に基づいて、ユーザが電話をしている、キーボードを操作しているなどの情報を取得し、解析情報の補助情報として利用することができる。
The user's work is determined based on the registered posture information of the user having the parameter most similar to the posture determination parameter acquired by the posture analysis process based on the user image captured by the
姿勢解析情報生成部257の生成する行動解析情報の一例を図19に示す。図19に示す行動解析情報は、あるユーザの1日のワーキングタイムにおける行動の種類と、その行動をとっている時間を表として示した行動解析情報である。すなわち測定時間を2005、8、12のAM10:00〜PM5:30として、その間にカメラ101を介して取得されるユーザの画像データについて、所定フレーム間隔で処理を実行し、選択フレームの姿勢判定パラメータを求め、登録姿勢情報の登録パラメータとの比較を行い、最も類似するパラメータを持つ登録姿勢を選択して、測定フレーム間隔において、その登録姿勢が保持され、その姿勢に対応する行動が実行されていると判定して、時間の推移に伴う行動履歴を取得する。この情報に、マイクから取得される情報を加え、解析を実行することで1日のユーザの行動分布を算出し、図19に示すような行動解析サマリーが生成される。
An example of the behavior analysis information generated by the posture analysis
図19に示すデータは、ユーザは2005、8、12のAM10:00〜PM5:30の期間において、(a)PC操作を40%、(b)電話を20%、(c)読書を25%、(d)休憩を15%していたことを示す情報である。ユーザは、これらの行動情報サマリーを見ることで、1日の行動状況を容易に把握することができる。
In the data shown in FIG. 19, the user has (a)
図20に示すフローチャートを参照して、姿勢解析情報生成部257の実行する行動解析処理を中心とした処理シーケンスについて説明する。ステップS501においてモニタ画像に基づくユーザ検出処理がなされ、ステップS502において、ユーザ検出情報に基づく姿勢判定パラメータが選択フレームに基づいて求められる。これらの処理は、姿勢判定処理部253の処理として実行される。
With reference to the flowchart shown in FIG. 20, the process sequence centering on the action analysis process which the attitude | position analysis
次に、ステップS503において、姿勢分類処理部255は、姿勢判定処理部253から入力するフレーム対応の姿勢判定パラメータと、登録済みの登録姿勢情報に対応するパラメータ、すなわち、図18に示す登録姿勢情報に対応するパラメータとの比較を実行し、入力するフレーム対応の姿勢判定パラメータに最も近いパラメータ値を持つ登録姿勢情報に対応する姿勢および行動が、そのフレームにおけるユーザの姿勢と行動であると判定する。
Next, in step S503, the posture
ステップS504以降が、姿勢解析情報生成部257の処理であり、まず、ステップS504において、姿勢分類評理部255が選択した登録姿勢情報を行動解析情報(サマリー)生成用データとして登録する。例えば、姿勢判定パラメータを取得するフレーム時間間隔が1分であれば、各フレームにおいて選択された登録姿勢情報に相当する行動が1分継続しているものとしてデータ登録する。
Step S504 and subsequent steps are processing of the posture analysis
次に、ステップS505において、予め定めた行動解析情報の測定時間T1が経過したか否かを判定する。例えばAM10:00〜PM:5:00などの測定時間が設定される。測定開始からの経過時間T1(例えば7時間)が経過した場合は、測定を終了し、ステップS507に進む。測定時間が残っている場合は、ステップS506において、測定間隔[t]が経過したか否かを判定する。これは、姿勢判定パラメータを取得するフレーム時間間隔に相当する。姿勢解析情報の測定時間T1や、姿勢判定パラメータを取得するフレーム時間間隔tは、ユーザによる初期設定において設定される。 Next, in step S505, it is determined whether or not a predetermined measurement time T1 of behavior analysis information has elapsed. For example, a measurement time such as AM 10:00 to PM: 5:00 is set. If an elapsed time T1 (for example, 7 hours) has elapsed since the start of measurement, the measurement is terminated and the process proceeds to step S507. If the measurement time remains, it is determined in step S506 whether the measurement interval [t] has elapsed. This corresponds to a frame time interval for acquiring the posture determination parameter. The measurement time T1 of posture analysis information and the frame time interval t for obtaining posture determination parameters are set in the initial setting by the user.
ステップS506において、測定間隔[t]が経過した場合は、その時点のフレームに基づいて、ステップS501〜S504の処理が実行され、行動解析情報(サマリー)生成用データとして登録する。ステップS505において、予め定めた姿勢解析情報の測定時間T1が経過したと判定されると、測定を終了し、ステップS507に進む。 If the measurement interval [t] has elapsed in step S506, the processing of steps S501 to S504 is executed based on the frame at that time, and registered as behavior analysis information (summary) generation data. If it is determined in step S505 that the predetermined posture analysis information measurement time T1 has elapsed, the measurement ends and the process proceeds to step S507.
ステップS507では、行動解析情報(サマリ−)を生成し、記憶部203に記憶する。行動解析情報(サマリ−)は、例えば図19を参照して説明した解析情報である。ステップS508において、入力手段201を介してユーザからの行動解析情報出力要求があったと判定されると、ステップS509において、図7に示す情報出力部258を介して出力手段(ディスプレイ)204に解析情報(例えば図19に示す解析情報)を出力する。
In step S507, behavior analysis information (summary) is generated and stored in the
なお、図20に示すフローにおいてはマイクからの取得情報を利用した行動解析処理を行なっていないが、前述したようにマイクからの取得情報に基づいて、行動パターンを解析する処理を行なう構成としてもよい。 In the flow shown in FIG. 20, the behavior analysis process using the information acquired from the microphone is not performed. However, as described above, the process of analyzing the behavior pattern may be performed based on the information acquired from the microphone. Good.
このように、本発明の構成では、予め登録された登録姿勢情報とカメラ101から入力するユーザ画像の姿勢判定パラメータの比較によって、ユーザの姿勢を分類し、分類情報に基づいて、以下の処理、すなわち、
(1)ユーザの姿勢解析結果に基づいて、アラーム出力、出力手段(ディスプレイ)204に対する姿勢情報出力、
(2)一定期間のユーザの姿勢解析情報を生成して提供、
(3)一定期間のユーザの行動解析情報を生成して提供、
これらの処理を実行する構成とした。
As described above, in the configuration of the present invention, the posture of the user is classified by comparing the registered posture information registered in advance with the posture determination parameter of the user image input from the
(1) Based on the user's posture analysis result, alarm output, posture information output to the output means (display) 204,
(2) Generate and provide user posture analysis information for a certain period,
(3) Generate and provide user behavior analysis information for a certain period,
It was set as the structure which performs these processes.
基本的に登録姿勢情報に基づくユーザの姿勢解析をリアルタイムで行なうことになり、入力するフレームに基づく解析結果は、登録姿勢情報に対応付けられた後は、不要となり、膨大な情報を蓄積すること不要となり、効率的な処理が実現される。 Basically, the posture analysis of the user based on the registered posture information is performed in real time, and the analysis result based on the input frame becomes unnecessary after being associated with the registered posture information, and a large amount of information is accumulated. This eliminates the need for efficient processing.
なお、上述の実施例では、姿勢分類処理部255において、入力フレーム対応の姿勢判定パラメータと、登録姿勢情報のパラメータとの比較に基づく類似判定処理によって、入力フレーム対応の姿勢をいずれかの登録姿勢情報に分類する処理を実行する構成とし、比較パラメータを図5に示す各パラメータ、すなわち、
*頭部垂直長(xh)
*胴体垂直長(xt)
*全体垂直長(xa)
*頭部重心位置(x1,y1)
*胴体重心位置(x2,y2,)
*全体重心位置(x3、Y3)
*垂直軸からの頭部の傾き(α度)
*垂直軸からの胴体の傾き(β度)
*垂直軸からの全体の傾き(δ度)
*垂直軸からの肩の傾き(γ度)
*ポリゴン頂点位置((px1、py1)、(px2、py2)・・・、(pxn、pyn))
これらのパラメータの比較処理を行なう例として説明したが、さらに、これらのパラメータの他に、このポリゴンの特徴情報を登録パラメータとして保持し、入力フレーム画像に基づいて、生成されるポリゴン(多角形)との比較を実行して類似性判定を実行する構成としてもよい。さらに、図11、図12を参照して説明した頭部や胴体の楕円情報をパラメータとして保持し、これらの楕円情報の比較によって類似判定を実行する構成としてもよい。
In the above-described embodiment, the posture
* Head vertical length (xh)
* Vertical fuselage length (xt)
* Overall vertical length (xa)
* Head center of gravity (x1, y1)
* Body center of gravity (x2, y2,)
* Overall center of gravity (x3, Y3)
* Head tilt from the vertical axis (α degrees)
* Body tilt from the vertical axis (β degrees)
* Overall inclination from vertical axis (δ degrees)
* Inclination of shoulder from vertical axis (γ degree)
* Polygon vertex position ((px1, py1), (px2, py2) ..., (pxn, pyn))
Although an example of performing comparison processing of these parameters has been described, in addition to these parameters, the feature information of this polygon is held as a registration parameter, and a polygon (polygon) generated based on the input frame image is stored. It is good also as a structure which performs a comparison with and performs similarity determination. Furthermore, the configuration may be such that the ellipse information of the head and torso described with reference to FIGS. 11 and 12 is held as a parameter, and the similarity determination is executed by comparing these ellipse information.
本発明の情報処理装置によって得られる各種の解析情報は、例えば健康管理や、生産性管理に適用可能である。 Various types of analysis information obtained by the information processing apparatus of the present invention can be applied to, for example, health management and productivity management.
例えば健康管理情報として適用する場合の処理も例について説明する。先に、図16を参照して説明したように、姿勢解析情報生成部257は、姿勢解析情報としてユーザのある期間の姿勢の時間的分布を取得することができる。例えばあるユーザが腰痛や肩こりなどの症状を発生させた場合、図16に示す姿勢解析情報を医者に提示して自分の症状を説明することで、症状を改善するための良い姿勢についてのアドバイスを受けることができる。
For example, an example of processing when applied as health management information will be described. As described above with reference to FIG. 16, the posture analysis
図5を参照して説明したように、ユーザは予め複数の姿勢を登録姿勢情報として登録し、この登録姿勢情報中に評価判定情報としてよい姿勢[Good]や悪い姿勢[Bad]等の評価判定情報を含めることができる。医者からアドバイスされた症状を改善するための良い姿勢を、登録姿勢情報中に良い姿勢[Good]として登録することで、この良い姿勢によって評価された姿勢の評価情報が、図13を参照して説明した姿勢インジケータ301によって示されることになり、ユーザは、インジケータ301によって示される情報に基づいて、医者の指定した良い姿勢を保持することが可能となる。
As described with reference to FIG. 5, the user registers a plurality of postures as registered posture information in advance, and evaluation determinations such as good posture [Good] and bad posture [Bad] as the evaluation determination information in the registered posture information. Information can be included. By registering a good posture for improving the symptoms advised by the doctor as a good posture [Good] in the registered posture information, posture evaluation information evaluated by this good posture is shown in FIG. It will be indicated by the described
また、生産性管理に適用する例について説明する。先に、図19を参照して説明したように、姿勢解析情報生成部257は、行動解析情報としてユーザのある期間の行動の時間的分布を取得することができる。また、前述したように、フィードバック姿勢解析情報生成部256は、一定の条件のアラーム条件に基づいて、例えばある同じ姿勢が継続して所定時間続いた場合などにアラーム出力を行なうことができる。
An example applied to productivity management will be described. As described earlier with reference to FIG. 19, the posture analysis
このような構成を適用した生産性管理構成について説明する。例えば、ユーザがキーボード操作と判定される姿勢を1時間以上継続した場合、アラーム出力を行なう設定としたり、あるいは電話をしている時間が1時間以上続いた場合に、アラームを出力する設定とすることで、同じ作業が長時間、継続して行なわれていることをユーザに警告することが可能となる。このように、本発明の構成を適用することで、同一作業の継続による作業能率の低下を未然に防止させることが可能となる。 A productivity management configuration to which such a configuration is applied will be described. For example, if the user has determined that the keyboard operation is continued for one hour or longer, the alarm is set to be output, or the alarm is set to be output when the telephone call is continued for one hour or longer. Thus, it is possible to warn the user that the same work has been continuously performed for a long time. Thus, by applying the configuration of the present invention, it is possible to prevent a reduction in work efficiency due to the continuation of the same work.
またユーザの作業の評価に、行動解析情報を用いることもできる。例えば、営業を仕事としているユーザの行動を監視し、電話をかけている時間が長いほど、熱心な営業を行なっているとの評価尺度を適用する場合、姿勢解析情報生成部257の生成する行動解析情報に基づいて、ユーザの電話時間を判定することが可能であり、行動解析による行動評価、生産性管理が実現される。
Also, the behavior analysis information can be used for evaluating the user's work. For example, the behavior generated by the posture analysis
最後に、図21を参照して、本発明の情報処理装置のハードウェア構成例について説明する。 Finally, with reference to FIG. 21, a hardware configuration example of the information processing apparatus of the present invention will be described.
CPU(Central Processing Unit)501は、OS(Operating System)、上述の実施例において説明した画像処理、姿勢判定処理、姿勢分類、評価処理、姿勢解析情報生成処理などの各処理の実行シーケンスを記述したコンピュータ・プログラムに従った処理を実行する制御部である。 A CPU (Central Processing Unit) 501 describes an execution sequence of each process such as an OS (Operating System), image processing, posture determination processing, posture classification, evaluation processing, posture analysis information generation processing described in the above-described embodiments. It is a control part which performs the process according to a computer program.
ROM(Read Only Memory)502は、CPU501が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)503は、CPU501の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバスなどから構成されるホストバス504により相互に接続されている。
A ROM (Read Only Memory) 502 stores programs used by the
ホストバス504は、ブリッジ505を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス506に接続されている。
The
キーボード508、ポインティングデバイス509は、ユーザにより操作される入力デバイスである。ディスプレイ510は、液晶表示装置またはCRT(Cathode Ray Tube)などから成り、各種情報をテキストやイメージで表示する。
A
HDD(Hard Disk Drive)511は、ハードディスクを内蔵し、ハードディスクを駆動し、CPU501によって実行するプログラムや情報を記録または再生させる。ハードディスクは、例えば、図5、図18を参照して説明した登録姿勢情報、アラーム条件設定情報などの各種設定情報の格納部としての役割、さらに各種のデータ処理プログラム等、各種コンピュータ・プログラムが格納領域として利用される。
An HDD (Hard Disk Drive) 511 includes a hard disk, drives the hard disk, and records or reproduces a program executed by the
ドライブ512は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体521に記録されているデータまたはプログラムを読み出して、そのデータまたはプログラムを、インタフェース507、外部バス506、ブリッジ505、およびホストバス504を介して接続されているRAM503に供給する。
The
接続ポート514は、外部接続機器522を接続するポートであり、USB,IEEE1394等の接続部を持つ。接続ポート514は、インタフェース507、および外部バス506、ブリッジ505、ホストバス504等を介してCPU501等に接続されている。通信部515は、ネットワークに接続され、CPU501、またはHDD511等からの供給データの送信、データ受信を実行する。カメラ531は、ユーザの画像情報を撮影し、マイク532は、音声データを取得して入力する。
The
なお、図21に示す情報処理装置のハードウェア構成例は、PCを適用して構成した装置の一例であり、本発明の情報処理装置は、図21に示す構成に限らず、上述した実施例において説明した処理を実行可能な構成であればよい。 Note that the hardware configuration example of the information processing apparatus illustrated in FIG. 21 is an example of an apparatus configured by applying a PC, and the information processing apparatus of the present invention is not limited to the configuration illustrated in FIG. Any configuration can be used as long as the processing described in the above item can be executed.
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。 The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims section described at the beginning should be considered.
なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。 The series of processes described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。 For example, the program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a recording medium. Alternatively, the program is temporarily or permanently stored on a removable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored (recorded). Such a removable recording medium can be provided as so-called package software.
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。 The program is installed on the computer from the removable recording medium as described above, or is wirelessly transferred from the download site to the computer, or is wired to the computer via a network such as a LAN (Local Area Network) or the Internet. The computer can receive the program transferred in this manner and install it on a recording medium such as a built-in hard disk.
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。 Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
以上、説明したように、本発明の構成によれば、カメラの撮影画像フレームに含まれる人物画像に基づいて、フレーム対応姿勢判定パラメータを取得し、記憶部に格納された複数の登録姿勢に対応する登録パラメータとの比較を実行して、フレーム対応姿勢判定パラメータに類似する登録パラメータを持つ登録姿勢を、撮影画像フレームに含まれる人物の姿勢として分類し、分類された登録姿勢に基づいて解析情報を生成する構成とした。本構成により、姿勢解析処理効率が向上し、蓄積データ量の削減が実現される。さらに、姿勢の評価情報、姿勢とその時間的占有率情報を対応付けた情報、行動とその時間的占有率情報を対応付けた情報などを解析情報として取得、提供することが可能となる。提供情報は、例えば健康管理、生産性管理や業務管理に適用可能である。 As described above, according to the configuration of the present invention, the frame-corresponding posture determination parameter is acquired based on the person image included in the captured image frame of the camera, and a plurality of registered postures stored in the storage unit are supported. The registered posture having a registered parameter similar to the frame-corresponding posture determination parameter is classified as the posture of the person included in the captured image frame, and the analysis information is based on the classified registered posture. It was set as the structure which produces | generates. With this configuration, posture analysis processing efficiency is improved, and a reduction in the amount of accumulated data is realized. Furthermore, posture evaluation information, information that associates posture with its temporal occupancy information, information that associates behavior with its temporal occupancy information, and the like can be acquired and provided as analysis information. The provided information can be applied to, for example, health management, productivity management, and business management.
10 ユーザ
100 情報処理装置
101 カメラ
102 マイク
105 姿勢情報表示領域
201 入力手段
202 入力情報解析部
203 記憶部
204 出力手段
251 背景画像情報削除処理部
252 画像処理部
253 姿勢判定処理部
254 データ登録部
255 姿勢分類処理部
256 フィードバック姿勢解析情報生成部
257 姿勢解析情報生成部
258 情報出力部
301 姿勢インジケータ
302 スライダ
312 姿勢情報表示部
501 CPU(Central processing Unit)
502 ROM(Read-Only-Memory)
503 RAM(Random Access Memory)
504 ホストバス
505 ブリッジ
506 外部バス
507 インタフェース
508 キーボード
509 ポインティングデバイス
510 ディスプレイ
511 HDD(Hard Disk Drive)
512 ドライブ
514 接続ポート
515 通信部
521 リムーバブル記録媒体
522 外部接続機器
531 カメラ
532 マイク
DESCRIPTION OF
502 ROM (Read-Only-Memory)
503 RAM (Random Access Memory)
504
512
Claims (20)
前記撮影部の撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理部と、
複数の登録姿勢に対応する姿勢判定情報を登録情報として記憶した記憶部と、
前記姿勢判定情報と、前記記憶部に格納された複数の登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理部と、
前記姿勢分類処理部において分類された登録姿勢に基づいて解析情報を生成する解析情報生成部と、
前記解析情報生成部の生成した解析情報を出力する情報出力部と、
を有することを特徴とする情報処理装置。 An imaging unit for imaging the target area;
A posture determination processing unit that acquires posture determination information based on a person image included in a photographed image of the photographing unit;
A storage unit storing posture determination information corresponding to a plurality of registered postures as registration information;
A posture that compares the posture determination information with a plurality of registration information stored in the storage unit, and classifies a registered posture having registration information similar to the posture determination information as a posture of a person included in the captured image. A classification processing unit;
An analysis information generating unit that generates analysis information based on the registered postures classified in the posture classification processing unit;
An information output unit for outputting the analysis information generated by the analysis information generation unit;
An information processing apparatus comprising:
前記複数の登録姿勢に対応する登録情報として各登録姿勢の評価判定情報有し、
前記解析情報生成部は、
前記姿勢分類処理部において分類された登録姿勢に対応して設定された評価判定情報に基づいて、前記撮影画像に含まれる人物の姿勢についての評価情報を生成する構成であることを特徴とする請求項1に記載の情報処理装置。 The storage unit
As registration information corresponding to the plurality of registered postures, there is evaluation determination information for each registered posture,
The analysis information generation unit
The configuration is such that evaluation information about a posture of a person included in the photographed image is generated based on evaluation determination information set corresponding to the registered posture classified by the posture classification processing unit. Item 4. The information processing apparatus according to Item 1.
前記解析情報生成部の生成した評価情報について、インジケータ表示処理を実行する構成であることを特徴とする請求項2に記載の情報処理装置。 The information output unit includes:
The information processing apparatus according to claim 2, wherein an indicator display process is performed on the evaluation information generated by the analysis information generation unit.
前記撮影画像に含まれる人物の頭部および胴体の傾き情報を、人物画像に併せて表示する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。 The information output unit includes:
The information processing apparatus according to claim 1, wherein the information processing apparatus is configured to execute a process of displaying tilt information of a person's head and torso included in the photographed image together with the person image.
前記姿勢判定処理部において、生成した姿勢の角度の基準を示す基準線と、姿勢の傾きを示す線とを姿勢を示す画像に重畳して表示する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。 The information output unit includes:
The posture determination processing unit is configured to execute a process of superimposing and displaying a reference line indicating a generated posture angle reference and a line indicating a posture inclination on an image indicating the posture. The information processing apparatus according to claim 1.
予め定めた測定期間内における人物の姿勢解析情報を生成する構成であり、
前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理部が分類した各前記撮影画像に対応する分類登録姿勢に基づいて、登録姿勢と、前記測定期間内における該登録姿勢の時間的占有率情報を対応付けた情報を解析情報として生成する構成であることを特徴とする請求項1に記載の情報処理装置。 The analysis information generation unit
A configuration for generating posture analysis information of a person within a predetermined measurement period,
Based on the classification registration posture corresponding to each of the photographed images classified by the posture classification processing unit based on the photographed image acquired within the measurement period, the registered posture and the time of the registered posture within the measurement period The information processing apparatus according to claim 1, wherein the information that associates the general occupation rate information is generated as analysis information.
予め定めた測定期間内における人物の行動解析情報を生成する構成であり、
前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理部が分類した各撮影画像の分類登録姿勢に基づいて、該登録姿勢に対応付けられる行動態様と、前記測定期間内における該行動の時間的占有率を対応付けた情報を解析情報として生成する構成であることを特徴とする請求項1に記載の情報処理装置。 The analysis information generation unit
It is a configuration for generating human behavior analysis information within a predetermined measurement period,
Based on the classification registration posture of each photographed image classified by the posture classification processing unit based on the photographed image acquired within the measurement period, an action mode associated with the registration posture, and the behavior in the measurement period The information processing apparatus according to claim 1, wherein the information is associated with a temporal occupancy rate of an action and is generated as analysis information.
複数の登録姿勢に対応する登録パラメータと、各登録姿勢に対応する行動情報を記録データとして有し、
前記解析情報生成部は、
前記測定期間内に取得されたフレーム画像に基づいて前記姿勢分類処理部が分類した各フレームの分類登録姿勢に基づいて、記憶部から登録姿勢対応の行動情報を取得し、取得した行動情報に基づいて、行動態様と前記測定期間内における該行動の時間的占有率情報を生成する構成であることを特徴とする請求項7に記載の情報処理装置。 The storage unit
It has registration parameters corresponding to multiple registered postures and action information corresponding to each registered posture as recorded data,
The analysis information generation unit
Based on the classification registration posture of each frame classified by the posture classification processing unit based on the frame image acquired within the measurement period, the behavior information corresponding to the registered posture is acquired from the storage unit, and based on the acquired behavior information The information processing apparatus according to claim 7, wherein the information processing apparatus is configured to generate a behavior mode and temporal occupancy information of the behavior within the measurement period.
前記撮影画像に含まれる人物画像の姿勢判定情報として、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を取得する構成であり、
前記姿勢分類処理部は、
前記姿勢判定情報と、前記記憶部に格納された複数の登録情報との比較を、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を適用して実行する構成であることを特徴とする請求項1に記載の情報処理装置。 The posture determination processing unit
Configuration for acquiring at least one of polygons set based on a person's outline or ellipse, centroid position, and angle associated with a constituent part of the person as posture determination information of the person image included in the captured image And
The posture classification processing unit
A comparison between the posture determination information and a plurality of registration information stored in the storage unit is a polygon set based on the outline of a person, or an ellipse associated with a constituent part of the person, a barycentric position, and an angle. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured to execute by applying any information.
前記撮影部の撮影する連続フレームから一部のフレームを選択し、該選択フレームの撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する構成であることを特徴とする請求項1に記載の情報処理装置。 The posture determination processing unit
2. The configuration according to claim 1, wherein a part of frames is selected from continuous frames photographed by the photographing unit, and posture determination information is acquired based on a person image included in a photographed image of the selected frame. The information processing apparatus described.
前記情報出力部が情報を出力する表示画面に隣接して設けられ、撮影対象者の上半身を撮影範囲として設定した撮影を実行する構成であり、
前記姿勢判定処理部は、
前記撮影部の撮影画像に含まれる人物画像に基づいて、前記撮影対象者の頭部および胴体を分けて姿勢判定処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。 The photographing unit
The information output unit is provided adjacent to a display screen for outputting information, and is configured to perform shooting with the upper body of the shooting target set as a shooting range,
The posture determination processing unit
The information processing apparatus according to claim 1, wherein the posture determination process is executed by dividing the head and the body of the person to be photographed based on a person image included in a photographed image of the photographing unit. .
前記撮影対象者の頭部および胴体の各々に対応する楕円と、該楕円の長軸および短軸を求め、各楕円における長軸の垂直軸に対する傾きに基づいて姿勢を判定する処理を実行する構成であることを特徴とする請求項11に記載の情報処理装置。 The posture determination processing unit
A configuration in which an ellipse corresponding to each of the head and torso of the subject to be photographed, a major axis and a minor axis of the ellipse, and a process of determining a posture based on an inclination of the major axis with respect to a vertical axis in each ellipse The information processing apparatus according to claim 11, wherein the information processing apparatus is an information processing apparatus.
音声入力部を有し、
前記解析情報生成部は、
前記音声入力部から入力する音声情報に基づいて、解析情報を生成する構成であることを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus further includes:
Has a voice input unit,
The analysis information generation unit
The information processing apparatus according to claim 1, wherein the analysis information is generated based on voice information input from the voice input unit.
前記姿勢分類処理部において分類された登録姿勢に基づいて、健康管理情報または生産性管理情報を生成する処理を実行する構成であり、
前記情報出力部は、
前記解析情報生成部の生成した健康管理情報または生産性管理情報を出力する構成であることを特徴とする請求項1に記載の情報処理装置。 The analysis information generation unit
Based on the registered posture classified in the posture classification processing unit, it is configured to execute processing to generate health management information or productivity management information,
The information output unit includes:
The information processing apparatus according to claim 1, wherein the information processing apparatus is configured to output health management information or productivity management information generated by the analysis information generation unit.
前記撮影ステップにおいて撮影した撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理ステップと、
前記姿勢判定情報と、記憶部に格納された複数の登録姿勢に対応する姿勢判定情報としての登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理ステップと、
前記姿勢分類処理ステップにおいて分類された登録姿勢に基づいて解析情報を生成する解析情報生成ステップと、
前記解析情報生成ステップにおいて生成した解析情報を出力する情報出力ステップと、
を有することを特徴とする情報処理方法。 A shooting step for shooting the target area;
A posture determination processing step for acquiring posture determination information based on a person image included in the photographed image photographed in the photographing step;
The posture determination information is compared with registration information as posture determination information corresponding to a plurality of registered postures stored in the storage unit, and a registered posture having registration information similar to the posture determination information is added to the captured image. A posture classification processing step for classifying the posture of the included person,
An analysis information generating step for generating analysis information based on the registered posture classified in the posture classification processing step;
An information output step for outputting the analysis information generated in the analysis information generation step;
An information processing method characterized by comprising:
前記姿勢分類処理ステップにおいて分類された登録姿勢に対応して設定された評価判定情報に基づいて、前記撮影画像に含まれる人物の姿勢についての評価情報を生成するステップであることを特徴とする請求項15に記載の情報処理方法。 The analysis information generation step includes
The step of generating evaluation information about the posture of a person included in the photographed image based on the evaluation determination information set corresponding to the registered posture classified in the posture classification processing step. Item 16. The information processing method according to Item 15.
予め定めた測定期間内における人物の姿勢解析情報を生成するステップであり、
前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理ステップにおいて分類された各撮影画像の分類登録姿勢に基づいて、登録姿勢と、前記測定期間内における該登録姿勢の時間的占有率情報を対応付けた情報を解析情報として生成することを特徴とする請求項15に記載の情報処理方法。 The analysis information generation step includes
A step of generating posture analysis information of a person within a predetermined measurement period,
Based on the registered registration of each captured image classified in the orientation classification processing step based on the captured image acquired within the measurement period, the registered attitude and the temporal occupation of the registered attitude within the measurement period The information processing method according to claim 15, wherein information associated with rate information is generated as analysis information.
予め定めた測定期間内における人物の行動解析情報を生成するステップであり、
前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理ステップにおいて分類された各撮影画像の分類登録姿勢に基づいて、該登録姿勢に対応付けられる行動態様と、前記測定期間内における該行動の時間的占有率を対応付けた情報を解析情報として生成することを特徴とする請求項15に記載の情報処理方法。 The analysis information generation step includes
A step of generating human behavior analysis information within a predetermined measurement period,
Based on the classification registration posture of each photographed image classified in the posture classification processing step based on the photographed image acquired within the measurement period, an action mode associated with the registered posture, The information processing method according to claim 15, wherein information associated with the temporal occupancy rate of the action is generated as analysis information.
前記撮影画像に含まれる人物画像の姿勢判定情報として、人物画像の姿勢判定パラメータとして、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を取得するステップであり、
前記姿勢分類処理ステップは、
前記姿勢判定情報と、前記記憶部に格納された複数の登録情報との比較を、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を適用して実行するステップであることを特徴とする請求項15に記載の情報処理方法。 The posture determination processing step includes:
As the posture determination information of the human image included in the photographed image, as the posture determination parameter of the human image, at least the polygon set based on the contour of the person, or the ellipse associated with the constituent part of the person, the barycentric position, and the angle It is a step to acquire any information,
The posture classification processing step includes:
A comparison between the posture determination information and a plurality of registration information stored in the storage unit is a polygon set based on the outline of a person, or an ellipse associated with a constituent part of the person, a barycentric position, and an angle. The information processing method according to claim 15, wherein the information processing method is a step executed by applying any of the information.
対象領域を撮影する撮影ステップと、
前記撮影ステップにおいて撮影した撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理ステップと、
前記姿勢判定情報と、記憶部に格納された複数の登録姿勢に対応する姿勢判定情報としての登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理ステップと、
前記姿勢分類処理ステップにおいて分類された登録姿勢に基づいて解析情報を生成する解析情報生成ステップと、
前記解析情報生成ステップにおいて生成した解析情報を出力する情報出力ステップと、
を有することを特徴とするコンピュータ・プログラム。 A computer program that causes an information processing apparatus to execute posture analysis processing;
A shooting step for shooting the target area;
A posture determination processing step for acquiring posture determination information based on a person image included in the photographed image photographed in the photographing step;
The posture determination information is compared with registration information as posture determination information corresponding to a plurality of registered postures stored in the storage unit, and a registered posture having registration information similar to the posture determination information is added to the captured image. A posture classification processing step for classifying the posture of the included person,
An analysis information generating step for generating analysis information based on the registered posture classified in the posture classification processing step;
An information output step for outputting the analysis information generated in the analysis information generation step;
A computer program characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005234883A JP2007048232A (en) | 2005-08-12 | 2005-08-12 | Information processing device, information processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005234883A JP2007048232A (en) | 2005-08-12 | 2005-08-12 | Information processing device, information processing method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007048232A true JP2007048232A (en) | 2007-02-22 |
Family
ID=37850984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005234883A Pending JP2007048232A (en) | 2005-08-12 | 2005-08-12 | Information processing device, information processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007048232A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010540970A (en) * | 2007-10-05 | 2010-12-24 | アーテック・グループ・インコーポレーテッド | Integrated object capturing system, display device, and related method |
JP2012023566A (en) * | 2010-07-14 | 2012-02-02 | Toshiba Teli Corp | Monitoring system, and behavior monitoring program |
JP2016178531A (en) * | 2015-03-20 | 2016-10-06 | 大日本印刷株式会社 | Printed matter manufacturing apparatus |
US9798958B2 (en) | 2013-12-02 | 2017-10-24 | Fujitsu Limited | Biometric information registration device and method |
US10503969B2 (en) | 2016-03-25 | 2019-12-10 | Fuji Xerox Co., Ltd. | Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method |
-
2005
- 2005-08-12 JP JP2005234883A patent/JP2007048232A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010540970A (en) * | 2007-10-05 | 2010-12-24 | アーテック・グループ・インコーポレーテッド | Integrated object capturing system, display device, and related method |
JP2012023566A (en) * | 2010-07-14 | 2012-02-02 | Toshiba Teli Corp | Monitoring system, and behavior monitoring program |
US9798958B2 (en) | 2013-12-02 | 2017-10-24 | Fujitsu Limited | Biometric information registration device and method |
JP2016178531A (en) * | 2015-03-20 | 2016-10-06 | 大日本印刷株式会社 | Printed matter manufacturing apparatus |
US10503969B2 (en) | 2016-03-25 | 2019-12-10 | Fuji Xerox Co., Ltd. | Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6159179B2 (en) | Image processing apparatus and image processing method | |
US20100124357A1 (en) | System and method for model based people counting | |
JP6590609B2 (en) | Image analysis apparatus and image analysis method | |
JP2007164720A (en) | Head detecting device, head detecting method, and head detecting program | |
JP2008199549A (en) | Monitor image processing method, monitoring system, and monitor image processing program | |
JP6841608B2 (en) | Behavior detection system | |
KR20180020123A (en) | Asynchronous signal processing method | |
US20210081716A1 (en) | Training system and analysis system | |
RU2713876C1 (en) | Method and system for detecting alarm events when interacting with self-service device | |
JP2007034525A (en) | Information processor, information processing method and computer program | |
JP2007048232A (en) | Information processing device, information processing method, and computer program | |
JP6593949B1 (en) | Information processing apparatus and marketing activity support apparatus | |
US20160110909A1 (en) | Method and apparatus for creating texture map and method of creating database | |
JP2002366958A (en) | Method and device for recognizing image | |
US20220189200A1 (en) | Information processing system and information processing method | |
JP4449483B2 (en) | Image analysis apparatus, image analysis method, and computer program | |
JP2020095651A (en) | Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program | |
JP7484569B2 (en) | Image processing device, image processing method, and program | |
JP2008059108A (en) | Image processing apparatus, image processing method, its program, and flow of people monitoring system | |
JP6467994B2 (en) | Image processing program, image processing apparatus, and image processing method | |
JP2023543627A (en) | Systems and methods for counting, locating and visualizing acne | |
US20200160047A1 (en) | Work skill supporting device and work skill supporting system | |
JP7152651B2 (en) | Program, information processing device, and information processing method | |
JP2020166653A (en) | Information processing device, information processing method, and program | |
JP7376446B2 (en) | Work analysis program and work analysis device |