JP2007048232A - Information processing device, information processing method, and computer program - Google Patents

Information processing device, information processing method, and computer program Download PDF

Info

Publication number
JP2007048232A
JP2007048232A JP2005234883A JP2005234883A JP2007048232A JP 2007048232 A JP2007048232 A JP 2007048232A JP 2005234883 A JP2005234883 A JP 2005234883A JP 2005234883 A JP2005234883 A JP 2005234883A JP 2007048232 A JP2007048232 A JP 2007048232A
Authority
JP
Japan
Prior art keywords
information
posture
analysis
registered
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005234883A
Other languages
Japanese (ja)
Inventor
Alejandro Jaimes
ハイメス アレハンドロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005234883A priority Critical patent/JP2007048232A/en
Publication of JP2007048232A publication Critical patent/JP2007048232A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and method efficiently carrying out posture analysis and activity analysis based upon a photographed image of a person. <P>SOLUTION: On the basis of a person image included in a photographed image frame of a camera, a frame corresponding posture determination parameter is acquired, comparison with registered parameters corresponding to a plurality of registered postures stored in a storing part is carried out, a registered posture having a registered parameter similar to the frame corresponding posture determination parameter is categorized as a posture of a person included in the photographed image frame, and analysis information is generated on the basis of the categorized registered posture. By such a composition, posture analysis processing efficiency is improved, and reduction of stored data amount is realized. Evaluation information of a posture, information coordinating a posture with its temporal occupation ratio information, and information coordinating an activity and its temporal occupation ratio information, or the like can be acquired and provided as analysis information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ユーザを撮影した画像や音声を入力し、ユーザの姿勢検出や、ユーザの姿勢、行動解析処理を行なう情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。さらに、詳細には、例えばカメラによるユーザの撮影画像からユーザの姿勢を判定し、判定情報を提供する処理や、一定期間の撮影画像や取得音声に基づいてユーザの姿勢や行動サマリーを生成して提供することを可能とした情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a computer program for inputting an image or sound of a user and performing user posture detection, user posture and behavior analysis processing. More specifically, for example, a user's posture is determined from a captured image of the user by a camera, and processing for providing determination information, a user's posture and a behavior summary are generated based on a captured image and acquired sound for a certain period. The present invention relates to an information processing apparatus, an information processing method, and a computer program that can be provided.

人物をカメラによって撮影し、その撮影画像に基づいてユーザの動作や姿勢などを解析するシステムについての研究、開発が盛んに行なわれている。例えば特許文献1には、人物の顔を含む画像データを取得して顔画像領域とその他の身体画像領域とに基づいて人物の動作内容を解析するシステムについて開示している。   Research and development of a system for photographing a person with a camera and analyzing a user's movement and posture based on the photographed image are actively conducted. For example, Patent Document 1 discloses a system that acquires image data including a person's face and analyzes the action content of the person based on the face image area and other body image areas.

また、PCなどの情報処理装置に対するデータ入力処理において、マウスやキーボードのような物理的なデバイスを使わずに、ユーザの身振りや手振りなどのジェスチャーを解析して、この解析結果に基づいてデータ入力を行なう方法が提案されている。例えば、非特許文献1〜3は、このようなユーザの身振りや手振りなどのジェスチャーを識別して、コマンド入力を行なう手法を開示している。   In data input processing for information processing devices such as PCs, gestures such as user gestures and hand gestures are analyzed without using a physical device such as a mouse or keyboard, and data input is performed based on the analysis results. A method of performing is proposed. For example, Non-Patent Documents 1 to 3 disclose a technique for identifying a gesture such as a user's gesture or hand gesture and inputting a command.

この方法では、まず、ビデオカメラで人物や人物の一部、例えば手を撮影し、画像処理によって背景から身体領域を切り出す。その後、その身体領域の部分が身体のどの部分に相当するかを特定する。これには身体モデルとのマッチングが必要となる。   In this method, first, a person or a part of a person, for example, a hand is photographed with a video camera, and a body region is cut out from the background by image processing. Thereafter, it is specified which part of the body the part of the body region corresponds to. This requires matching with a body model.

次に、身体形状の連続的な変化にもとづいて身振り(ジェスチャー)の意味を推定する。この推定は、身体形状の時系列的な変化とその意味を対応付けた辞書(身振り辞書)にもとづいて行なわれる。   Next, the meaning of gesture (gesture) is estimated based on the continuous change of the body shape. This estimation is performed based on a dictionary (gesture dictionary) that associates time-series changes in body shape and their meanings.

さらに、その他の画像に基づく動作識別処理を開示した従来技術としては、例えば、特許文献2に記載の技術がある。特許文献2には、被写体を複数のカメラで異なる方向から撮影し、これらの複数の画像の解析を行うことで、被写体の3次元の動きを解析する手法が示されている。また、特許文献3には、人物の頭部の撮影画像に基づいて頭部の動きと、視線方向を検出して、人物のうなずき動作を高精度に検出する構成が示されている。
特開2005−78257号公報 特開平10−334270号公報 特開2000−163196号公報 S.Marcel,"Gestures for multi−modal interfaces:A review",Technical Report IDIAP−RR02−34,2002. V.I.Pavlovic,R.Sharma&T.S.Huang,"Visual interpretation of hand gestures for human−computer interaction:a review",IEEE Trans,on PAMI,19(7),677−695,1997. M.Turk,"Gesture recognition",In K.Stanney(Ed.),Handbook of Virtual Environment Technology.
Furthermore, as a prior art disclosing the operation identification processing based on other images, for example, there is a technique described in Patent Document 2. Japanese Patent Application Laid-Open No. 2004-228688 discloses a technique for analyzing a three-dimensional movement of a subject by photographing the subject from different directions with a plurality of cameras and analyzing the plurality of images. Japanese Patent Application Laid-Open No. 2004-228561 discloses a configuration in which the movement of the head and the direction of the line of sight are detected based on a photographed image of the person's head to detect the person's nodding motion with high accuracy.
JP 2005-78257 A JP 10-334270 A JP 2000-163196 A S. Marcel, “Gestures for multi-modal interfaces: A review”, Technical Report IDIAP-RR02-34, 2002. V. I. Pavlovic, R.M. Sharma & T. S. Huang, “Visual interpretation of hand gestures for human-computer interaction: a review”, IEEE Trans, on PAMI, 19 (7), 677-695, 1997. M.M. Turk, “Gesture recognition”, In K. Stanney (Ed.), Handbook of Virtual Environment Technology.

しかし、上述した、従来技術に示されているユーザの動作検出、姿勢検出処理は、撮影画像データに基づく極めて複雑なアルゴリズムによる解析を必要とするものであり、効率的な処理とは言えず、専用のシステムの構築の必要性、コスト高、処理負荷が大きいといった問題を有している。すなわち、計算量が膨大であり、しかも認識精度が低いという欠点がある。また、ビデオ画像から人物や人物の一部を切り出して追尾させるためには、従来の方法では、機械学習による学習を必要としており、この学習に手間がかかるという問題がある。   However, the above-described user motion detection and posture detection processing shown in the prior art requires analysis by an extremely complicated algorithm based on the captured image data, and cannot be said to be efficient processing. There are problems such as necessity of construction of a dedicated system, high cost, and large processing load. That is, the calculation amount is enormous and the recognition accuracy is low. In addition, in order to cut out and track a person or a part of a person from a video image, the conventional method requires learning by machine learning, and there is a problem that this learning takes time.

本発明は、これらの問題点に鑑みて行なわれたもので、その目的は、物理的なデバイスを一切装着することなく、また多大な機械学習によるチューニングなしに、カメラによるユーザの撮影画像から効率的にユーザの姿勢を判定し、判定情報を提供する処理や、一定期間の撮影画像や取得音声に基づいてユーザの姿勢や行動サマリーを生成して提供することを可能とした情報処理装置、および情報処理方法、並びにコンピュータ・プログラムを提供することである。   The present invention has been made in view of these problems, and an object of the present invention is to improve efficiency from a photographed image of a user by a camera without wearing any physical device and without tuning by a large amount of machine learning. An information processing apparatus capable of automatically determining a user's posture, providing determination information, and generating and providing a user's posture and action summary based on a captured image and acquired sound for a certain period, and An information processing method and a computer program are provided.

本発明の第1の側面は、対象領域を撮影する撮影部と、前記撮影部の撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理部と、複数の登録姿勢に対応する姿勢判定情報を登録情報として記憶した記憶部と、前記姿勢判定情報と、前記記憶部に格納された複数の登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理部と、前記姿勢分類処理部において分類された登録姿勢に基づいて解析情報を生成する解析情報生成部と、前記解析情報生成部の生成した解析情報を出力する情報出力部とを有することを特徴とする情報処理装置にある。   According to a first aspect of the present invention, a photographing unit that photographs a target region, a posture determination processing unit that acquires posture determination information based on a person image included in a captured image of the photographing unit, and a plurality of registered postures A storage unit that stores corresponding posture determination information as registration information, the posture determination information, and a plurality of registration information stored in the storage unit, and a registered posture having registration information similar to the posture determination information Are classified as postures of persons included in the captured image, an analysis information generation unit that generates analysis information based on registered postures classified by the posture classification processing unit, and the analysis information generation unit And an information output unit that outputs the generated analysis information.

本構成によれば、多数の撮影フレーム画像を入力して姿勢解析を実行する場合、撮影画像に含まれる人物画像を特定の限られた数の登録姿勢に分類して、分類登録姿勢に基づく解析を実行する構成としたので、処理効率が向上し、蓄積データ量の削減も実現される。また、登録姿勢に基づく解析情報の生成、ユーザに対する解析情報の提供も処理負担が軽減され効率的に行なうことが可能となる。   According to this configuration, when performing posture analysis by inputting a large number of captured frame images, the person images included in the captured images are classified into a specific limited number of registered postures, and analysis based on the classification registered postures is performed. Therefore, the processing efficiency is improved and the amount of stored data is also reduced. Also, the generation of analysis information based on the registered posture and the provision of analysis information to the user can be efficiently performed with a reduced processing burden.

さらに、本発明の情報処理装置の一実施態様において、前記記憶部は、前記複数の登録姿勢に対応する登録情報として各登録姿勢の評価判定情報有し、前記解析情報生成部は、前記姿勢分類処理部において分類された登録姿勢に対応して設定された評価判定情報に基づいて、前記撮影画像に含まれる人物の姿勢についての評価情報を生成する構成であることを特徴とする。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the storage unit has evaluation determination information for each registered posture as registered information corresponding to the plurality of registered postures, and the analysis information generation unit includes the posture classification The configuration is characterized in that evaluation information about the posture of a person included in the photographed image is generated based on the evaluation determination information set corresponding to the registered posture classified in the processing unit.

本構成によれば、ユーザに対するフィードバック情報として姿勢の評価情報を提供することが可能となり、ユーザは、評価情報に基づいて、姿勢の修正を行なうことが可能となる。   According to this configuration, posture evaluation information can be provided as feedback information to the user, and the user can correct the posture based on the evaluation information.

さらに、本発明の情報処理装置の一実施態様において、前記情報出力部は、前記解析情報生成部の生成した評価情報について、インジケータ表示処理を実行する構成であることを特徴とする。   Furthermore, in an embodiment of the information processing apparatus according to the present invention, the information output unit is configured to execute an indicator display process for the evaluation information generated by the analysis information generation unit.

本構成によれば、自分の姿勢の状態をインジケータで確認することが可能となり、姿勢の修正をインジケータを確認しながら正しく実行することができる。   According to this configuration, it is possible to check the state of one's posture with an indicator, and correct posture can be correctly executed while checking the indicator.

さらに、本発明の情報処理装置の一実施態様において、前記情報出力部は、撮影画像フレームに含まれる人物の頭部および胴体の傾き情報を、人物画像に併せて表示する処理を実行する構成であることを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the information output unit is configured to execute a process of displaying the inclination information of the person's head and torso included in the captured image frame together with the person image. It is characterized by being.

本構成によれば、自分の姿勢の状態を人物画像と頭部および胴体の傾き情報で確認することが可能となり、姿勢の修正を画像を確認しながら正しく実行することができる。   According to this configuration, it is possible to check the state of one's posture with the person image and the tilt information of the head and torso, and correct the posture can be correctly executed while checking the image.

さらに、本発明の情報処理装置の一実施態様において、前記情報出力部は、前記姿勢判定処理部において、生成した姿勢の角度の基準を示す基準線と、姿勢の傾きを示す線とを姿勢を示す画像に重畳して表示する処理を実行する構成であることを特徴とする。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the information output unit is configured to determine a reference line indicating a reference for the generated posture angle and a line indicating the inclination of the posture in the posture determination processing unit. It is the structure which performs the process which superimposes and displays on the image shown.

本構成によれば、自分の姿勢の状態を人物画像と姿勢の角度の基準を示す基準線と、姿勢の傾きを示す線線で確認することが可能となり、姿勢の修正を画像を確認しながら正しく実行することができる。   According to this configuration, it is possible to confirm the state of one's posture with a reference line indicating the reference of the person image and the angle of the posture, and a line indicating the inclination of the posture, and correcting the posture while checking the image It can be executed correctly.

さらに、本発明の情報処理装置の一実施態様において、前記解析情報生成部は、
予め定めた測定期間内における人物の姿勢解析情報を生成する構成であり、前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理部が分類した各前記撮影画像に対応する分類登録姿勢に基づいて、登録姿勢と、前記測定期間内における該登録姿勢の時間的占有率情報を対応付けた情報を解析情報として生成する構成であることを特徴とする。
Furthermore, in one embodiment of the information processing apparatus of the present invention, the analysis information generation unit includes:
Classification registration corresponding to each photographed image classified by the posture classification processing unit based on the photographed image acquired during the measurement period, and generating posture analysis information of a person within a predetermined measurement period Based on the posture, information that associates the registered posture with temporal occupancy information of the registered posture within the measurement period is generated as analysis information.

本構成によれば、姿勢とその時間的占有率情報を対応付けた情報を解析情報として取得することが可能となり、情報を例えば、健康管理や業務管理に適用することも可能となる。   According to this configuration, it is possible to acquire information associating the posture with the temporal occupation rate information as analysis information, and it is possible to apply the information to, for example, health management or business management.

さらに、本発明の情報処理装置の一実施態様において、前記解析情報生成部は、予め定めた測定期間内における人物の行動解析情報を生成する構成であり、前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理部が分類した各撮影画像の分類登録姿勢に基づいて、該登録姿勢に対応付けられる行動態様と、前記測定期間内における該行動の時間的占有率を対応付けた情報を解析情報として生成する構成であることを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the analysis information generation unit is configured to generate human behavior analysis information within a predetermined measurement period, and the imaging acquired within the measurement period Based on the classification registration posture of each captured image classified by the posture classification processing unit based on the image, the behavior mode associated with the registration posture is associated with the temporal occupation rate of the behavior within the measurement period. The configuration is characterized in that information is generated as analysis information.

本構成によれば、行動とその時間的占有率情報を対応付けた情報を解析情報として取得することが可能となり、情報を例えば生産性管理や業務管理に適用することも可能となる。   According to this configuration, it is possible to acquire information in which an action is associated with its temporal occupation rate information as analysis information, and the information can be applied to, for example, productivity management or business management.

さらに、本発明の情報処理装置の一実施態様において、前記記憶部は、複数の登録姿勢に対応する登録パラメータと、各登録姿勢に対応する行動情報を記録データとして有し、前記解析情報生成部は、前記測定期間内に取得されたフレーム画像に基づいて前記姿勢分類処理部が分類した各フレームの分類登録姿勢に基づいて、記憶部から登録姿勢対応の行動情報を取得し、取得した行動情報に基づいて、行動態様と前記測定期間内における該行動の時間的占有率情報を生成する構成であることを特徴とする。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the storage unit includes, as recorded data, registration parameters corresponding to a plurality of registered postures and action information corresponding to the registered postures, and the analysis information generating unit Acquires action information corresponding to the registered posture from the storage unit based on the classification registration posture of each frame classified by the posture classification processing unit based on the frame image acquired within the measurement period, and the acquired behavior information On the basis of the behavior, it is a configuration that generates temporal occupancy information of the behavior within the measurement period.

本構成によれば、予め記憶部に登録した姿勢情報に行動情報を対応付けて記憶させる構成としたので、ユーザ固有の行動がある場合であってもこれらの行動情報を姿勢に対応付けて登録することで、ユーザに対応した固有の行動解析を行なうことが可能となる。   According to this configuration, since the behavior information is stored in association with the posture information registered in the storage unit in advance, even if there is a user-specific behavior, the behavior information is registered in association with the posture. This makes it possible to perform a unique behavior analysis corresponding to the user.

さらに、本発明の情報処理装置の一実施態様において、前記姿勢判定処理部は、前記撮影画像に含まれる人物画像の姿勢判定情報として、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を取得する構成であり、前記姿勢分類処理部は、前記姿勢判定情報と、前記記憶部に格納された複数の登録情報との比較を、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を適用して実行する構成であることを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the posture determination processing unit is configured as a polygon set based on the outline of a person or a person configuration as posture determination information of a person image included in the captured image. It is a configuration for acquiring at least one of an ellipse, a center of gravity position, and an angle associated with a part, and the posture classification processing unit includes the posture determination information and a plurality of registration information stored in the storage unit. The comparison is characterized in that the comparison is executed by applying at least one of polygon information set based on the outline of the person, or an ellipse, centroid position, and angle associated with the constituent part of the person.

本構成によれば、画像データ事態の比較ではなく、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度などをパラメータとして比較処理を行なう構成であるので、データ量が削減され、処理後列を高めることが可能となる。   According to this configuration, instead of comparing image data situations, the comparison processing is performed using polygons set based on the outline of the person, or ellipses, centroid positions, angles, etc. associated with the constituent parts of the person as parameters. As a result, the amount of data is reduced, and the post-processing columns can be increased.

さらに、本発明の情報処理装置の一実施態様において、前記姿勢判定処理部は、前記撮影部の撮影する連続フレームから一部のフレームを選択し、該選択フレームの撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する構成であることを特徴とする。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the posture determination processing unit selects a part of frames from the continuous frames photographed by the photographing unit, and converts the selected frame into a human image included in the photographed image of the selected frame. Based on this, the posture determination information is obtained.

本構成によれば、フレームを間欠的に処理する構成としたので、処理負担が軽減され、効率的な処理が可能となる。   According to this configuration, since the frame is processed intermittently, the processing load is reduced and efficient processing becomes possible.

さらに、本発明の情報処理装置の一実施態様において、前記撮影部は、前記情報出力部が情報を出力する表示画面に隣接して設けられ、撮影対象者の上半身を撮影範囲として設定した撮影を実行する構成であり、前記姿勢判定処理部は、前記撮影部の撮影画像に含まれる人物画像に基づいて、前記撮影対象者の頭部および胴体を分けて姿勢判定処理を実行する構成であることを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the photographing unit is provided adjacent to a display screen on which the information output unit outputs information, and performs photographing with the upper body of the photographing subject set as a photographing range. The posture determination processing unit is configured to execute posture determination processing by dividing the head and torso of the subject to be photographed based on a person image included in a photographed image of the photographing unit. It is characterized by.

本構成によれば、撮影対象者の頭部および胴体を分けて姿勢判定処理を実行する構成としたので、より正確な姿勢判定が実現される。   According to this configuration, since the posture determination process is executed by dividing the head and torso of the person to be imaged, more accurate posture determination is realized.

さらに、本発明の情報処理装置の一実施態様において、前記姿勢判定処理部は、前記撮影対象者の頭部および胴体の各々に対応する楕円と、該楕円の長軸および短軸を求め、各楕円における長軸の垂直軸に対する傾きに基づいて姿勢を判定する処理を実行する構成であることを特徴とする。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the posture determination processing unit obtains an ellipse corresponding to each of the head and torso of the subject and a major axis and a minor axis of the ellipse, The configuration is characterized in that the process of determining the posture is executed based on the inclination of the long axis of the ellipse with respect to the vertical axis.

本構成によれば、撮影対象者の頭部および胴体の各々に対応する楕円と、該楕円の長軸および短軸を求め、各楕円における長軸の垂直軸に対する傾きに基づいて姿勢を判定する構成としたので、より簡略かした処理アルゴリズムの実行に基づく姿勢判定が実現される。   According to this configuration, an ellipse corresponding to each of the subject's head and torso and the major and minor axes of the ellipse are obtained, and the posture is determined based on the inclination of the major axis to the vertical axis of each ellipse. Since the configuration is adopted, posture determination based on execution of a simplified processing algorithm is realized.

さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、さらに、音声入力部を有し、前記解析情報生成部は、前記音声入力部から入力する音声情報に基づいて、解析情報を生成する構成であることを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the information processing apparatus further includes a voice input unit, and the analysis information generation unit performs analysis based on voice information input from the voice input unit. It is the structure which produces | generates information, It is characterized by the above-mentioned.

本構成によれば、音声入力部から入力する音声情報に基づいて、解析情報を生成する構成としたので、例えば電話中、あるいは会話中などの行動を解析することができる。   According to this configuration, since the analysis information is generated based on the voice information input from the voice input unit, it is possible to analyze an action such as during a telephone call or during a conversation.

さらに、本発明の情報処理装置の一実施態様において、前記解析情報生成部は、前記姿勢分類処理部において分類された登録姿勢に基づいて、健康管理情報または生産性管理情報を生成する処理を実行する構成であり、前記情報出力部は、前記解析情報生成部の生成した健康管理情報または生産性管理情報を出力する構成であることを特徴とする。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the analysis information generation unit executes a process of generating health management information or productivity management information based on the registered postures classified by the posture classification processing unit. The information output unit is configured to output the health management information or the productivity management information generated by the analysis information generation unit.

本構成によれば、登録姿勢に基づく健康管理情報または生産性管理情報を生成してユーザに提供する構成としたので、ユーザは、情報の活用範囲として、自己の健康管理や生産性管理を行なうことができる。   According to this configuration, since the health management information or the productivity management information based on the registered posture is generated and provided to the user, the user performs his / her own health management and productivity management as the information utilization range. be able to.

さらに、本発明の第2の側面は、対象領域を撮影する撮影ステップと、前記撮影ステップにおいて撮影した撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理ステップと、前記姿勢判定情報と、記憶部に格納された複数の登録姿勢に対応する姿勢判定情報としての登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理ステップと、前記姿勢分類処理ステップにおいて分類された登録姿勢に基づいて解析情報を生成する解析情報生成ステップと、前記解析情報生成ステップにおいて生成した解析情報を出力する情報出力ステップと、を有することを特徴とする情報処理方法にある。   Furthermore, the second aspect of the present invention is a shooting step of shooting a target area, a posture determination processing step of acquiring posture determination information based on a person image included in the shot image shot in the shooting step, The posture determination information is compared with registration information as posture determination information corresponding to a plurality of registered postures stored in the storage unit, and a registered posture having registration information similar to the posture determination information is included in the captured image. A posture classification processing step for classifying as a posture of a person to be classified, an analysis information generation step for generating analysis information based on the registered posture classified in the posture classification processing step, and output of the analysis information generated in the analysis information generation step And an information output method.

本構成によれば、多数の撮影フレーム画像を入力して姿勢解析を実行する場合、フレーム画像に含まれる人物画像を特定の限られた数の登録姿勢に分類して、分類登録姿勢に基づく解析を実行する構成としたので、処理効率が向上し、蓄積データ量の削減も実現される。また、登録姿勢に基づく解析情報の生成、ユーザに対する解析情報の提供も処理負担が軽減され効率的に行なうことが可能となる。   According to this configuration, when performing posture analysis by inputting a large number of captured frame images, the person images included in the frame image are classified into a specific limited number of registered postures, and analysis based on the classification registered posture is performed. Therefore, the processing efficiency is improved and the amount of stored data is also reduced. Also, the generation of analysis information based on the registered posture and the provision of analysis information to the user can be efficiently performed with a reduced processing burden.

さらに、本発明の情報処理方法の一実施態様において、前記解析情報生成ステップは、前記姿勢分類処理ステップにおいて分類された登録姿勢に対応して設定された評価判定情報に基づいて、前記撮影画像に含まれる人物の姿勢についての評価情報を生成するステップであることを特徴とする。   Furthermore, in one embodiment of the information processing method of the present invention, the analysis information generation step includes adding the captured image to the captured image based on the evaluation determination information set corresponding to the registered posture classified in the posture classification processing step. This is a step of generating evaluation information about the posture of the person included.

本構成によれば、ユーザに対するフィードバック情報として姿勢の評価情報を提供することが可能となり、ユーザは、評価情報に基づいて、姿勢の修正を行なうことが可能となる。   According to this configuration, posture evaluation information can be provided as feedback information to the user, and the user can correct the posture based on the evaluation information.

さらに、本発明の情報処理方法の一実施態様において、前記解析情報生成ステップは、予め定めた測定期間内における人物の姿勢解析情報を生成するステップであり、前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理ステップにおいて分類された各撮影画像の分類登録姿勢に基づいて、登録姿勢と、前記測定期間内における該登録姿勢の時間的占有率情報を対応付けた情報を解析情報として生成することを特徴とする。   Furthermore, in an embodiment of the information processing method of the present invention, the analysis information generation step is a step of generating posture analysis information of a person within a predetermined measurement period, and the imaging acquired within the measurement period Based on the classification registration posture of each captured image classified in the posture classification processing step based on the image, the information that associates the registration posture with the temporal occupancy information of the registration posture within the measurement period is analyzed information It is characterized by producing | generating as.

本構成によれば、姿勢とその時間的占有率情報を対応付けた情報を解析情報として取得することが可能となり、情報を例えば、健康管理や業務管理に適用することも可能となる。   According to this configuration, it is possible to acquire information associating the posture with the temporal occupation rate information as analysis information, and it is possible to apply the information to, for example, health management or business management.

さらに、本発明の情報処理方法の一実施態様において、前記解析情報生成ステップは、予め定めた測定期間内における人物の行動解析情報を生成するステップであり、前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理ステップにおいて分類された各撮影画像の分類登録姿勢に基づいて、該登録姿勢に対応付けられる行動態様と、前記測定期間内における該行動の時間的占有率を対応付けた情報を解析情報として生成することを特徴とする。   Furthermore, in an embodiment of the information processing method of the present invention, the analysis information generation step is a step of generating human behavior analysis information within a predetermined measurement period, and the imaging acquired within the measurement period Based on the classification registration posture of each captured image classified in the posture classification processing step based on the image, the behavior mode associated with the registration posture is associated with the temporal occupation rate of the behavior within the measurement period. The generated information is generated as analysis information.

本構成によれば、行動とその時間的占有率情報を対応付けた情報を解析情報として取得することが可能となり、情報を例えば生産性管理や業務管理に適用することも可能となる。   According to this configuration, it is possible to acquire information in which an action is associated with its temporal occupation rate information as analysis information, and the information can be applied to, for example, productivity management or business management.

さらに、本発明の情報処理方法の一実施態様において、前記姿勢判定処理ステップは、
前記撮影画像に含まれる人物画像の姿勢判定情報として、人物画像の姿勢判定パラメータとして、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を取得するステップであり、前記姿勢分類処理ステップは、前記姿勢判定情報と、前記記憶部に格納された複数の登録情報との比較を、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を適用して実行するステップであることを特徴とする。
Furthermore, in one embodiment of the information processing method of the present invention, the posture determination processing step includes:
As the posture determination information of the human image included in the photographed image, as the posture determination parameter of the human image, at least the polygon set based on the contour of the person, or the ellipse associated with the constituent part of the person, the barycentric position, and the angle A step of acquiring any information, wherein the posture classification processing step is a polygon set based on a contour of a person by comparing the posture determination information with a plurality of registered information stored in the storage unit Or a step executed by applying information on at least one of an ellipse, a gravity center position, and an angle associated with a constituent part of a person.

本構成によれば、画像データ事態の比較ではなく、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度などをパラメータとして比較処理を行なう構成であるので、データ量が削減され、処理後列を高めることが可能となる。   According to this configuration, instead of comparing image data situations, the comparison processing is performed using polygons set based on the outline of the person, or ellipses, centroid positions, angles, etc. associated with the constituent parts of the person as parameters. As a result, the amount of data is reduced, and the post-processing columns can be increased.

さらに、本発明の第3の側面は、姿勢解析処理を情報処理装置において実行させるコンピュータ・プログラムであり、対象領域を撮影する撮影ステップと、前記撮影ステップにおいて撮影した撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理ステップと、前記姿勢判定情報と、記憶部に格納された複数の登録姿勢に対応する姿勢判定情報としての登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理ステップと、前記姿勢分類処理ステップにおいて分類された登録姿勢に基づいて解析情報を生成する解析情報生成ステップと、前記解析情報生成ステップにおいて生成した解析情報を出力する情報出力ステップとを有することを特徴とするコンピュータ・プログラムにある。   Furthermore, a third aspect of the present invention is a computer program that causes an information processing apparatus to execute posture analysis processing, and includes a photographing step for photographing a target region, and a person image included in the photographed image photographed in the photographing step. Based on the posture determination processing step for acquiring posture determination information, the posture determination information, and registration information as posture determination information corresponding to a plurality of registered postures stored in the storage unit, the posture determination information A posture classification processing step for classifying a registered posture having registration information similar to that as a posture of a person included in the photographed image, and analysis information for generating analysis information based on the registered posture classified in the posture classification processing step A generation step, and an information output step for outputting the analysis information generated in the analysis information generation step. There is a computer program which is characterized the door.

本構成によれば、多数のフレーム画像を入力して姿勢解析を実行する場合、フレーム画像に含まれる人物画像を特定の限られた数の登録姿勢に分類して、分類登録姿勢に基づく解析を実行する構成としたので、処理効率が向上し、蓄積データ量の削減も実現される。また、登録姿勢に基づく解析情報の生成、ユーザに対する解析情報の提供も処理負担が軽減され効率的に行なうことが可能となる。   According to this configuration, when performing posture analysis by inputting a large number of frame images, the person images included in the frame image are classified into a specific limited number of registered postures, and analysis based on the classified registered postures is performed. Since it is configured to execute, the processing efficiency is improved and the amount of stored data is also reduced. Also, the generation of analysis information based on the registered posture and the provision of analysis information to the user can be efficiently performed with a reduced processing burden.

なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能なコンピュータシステムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、CDやFD、MOなどの記録媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータシステム上でプログラムに応じた処理が実現される。   Note that the computer program of the present invention is a recording medium provided in a computer-readable format for a computer system capable of executing various program codes, for example, a recording medium such as a CD, FD, or MO. A computer program that can be provided by a medium or a communication medium such as a network. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本発明の構成によれば、カメラの撮影画像フレームに含まれる人物画像に基づいて、フレーム対応姿勢判定パラメータを取得し、記憶部に格納された複数の登録姿勢に対応する登録パラメータとの比較を実行して、フレーム対応姿勢判定パラメータに類似する登録パラメータを持つ登録姿勢を、撮影画像フレームに含まれる人物の姿勢として分類し、分類された登録姿勢に基づいて解析情報を生成する構成とした。本構成により、姿勢解析処理効率が向上し、蓄積データ量の削減が実現される。さらに、姿勢の評価情報、姿勢とその時間的占有率情報を対応付けた情報、行動とその時間的占有率情報を対応付けた情報などを解析情報として取得、提供することが可能となる。提供情報は、例えば健康管理、生産性管理や業務管理に適用可能である。   According to the configuration of the present invention, a frame-corresponding posture determination parameter is acquired based on a person image included in a captured image frame of a camera, and compared with registered parameters corresponding to a plurality of registered postures stored in the storage unit. The registered posture having the registration parameter similar to the frame-corresponding posture determination parameter is classified as the posture of the person included in the captured image frame, and the analysis information is generated based on the classified registered posture. With this configuration, posture analysis processing efficiency is improved, and a reduction in the amount of accumulated data is realized. Furthermore, posture evaluation information, information that associates posture with its temporal occupancy information, information that associates behavior with its temporal occupancy information, and the like can be acquired and provided as analysis information. The provided information can be applied to, for example, health management, productivity management, and business management.

以下、図面を参照しながら本発明の情報処理装置、および情報処理方法、並びにコンピュータ・プログラムの詳細について説明する。   Details of the information processing apparatus, information processing method, and computer program of the present invention will be described below with reference to the drawings.

まず、図1を参照して、本発明の情報処理装置の実行する処理の概要について説明する。図1に示すように、情報処理装置100は、ビデオカメラ101、およびマイク102を備え、ユーザ10を撮影した画像データおよび周囲の音声データを入力する。情報処理装置100は、ビデオカメラ101によって撮影される画像データと、マイク102の取得する音声データを入力して、ユーザの姿勢や行動を解析する。   First, an overview of processing executed by the information processing apparatus of the present invention will be described with reference to FIG. As illustrated in FIG. 1, the information processing apparatus 100 includes a video camera 101 and a microphone 102 and inputs image data obtained by capturing the user 10 and surrounding audio data. The information processing apparatus 100 inputs image data captured by the video camera 101 and audio data acquired by the microphone 102 and analyzes the posture and behavior of the user.

情報処理装置100のハードディスクなどの記憶手段には、背景画像情報や、ユーザの複数の姿勢情報が登録されており、登録された姿勢情報と、入力画像の解析に基づくユーザの姿勢解析結果に基づいて、アラーム出力などの処理を行なう。画像解析によるユーザの姿勢情報は、情報処理装置100のディスプレイに設定された姿勢情報表示領域105に表示される。姿勢情報表示は、例えばユーザの撮影画像に所定の姿勢判定の可能なラインを重畳した表示や、ユーザの姿勢が良い状態にあるか悪い常態にあるかなどを判別可能としたインジケータ表示など、各種の態様で表示される。これらの具体的内容については後段で説明する。   Background image information and a plurality of user posture information are registered in a storage unit such as a hard disk of the information processing apparatus 100. Based on the registered posture information and a user posture analysis result based on an analysis of an input image. And perform processing such as alarm output. The posture information of the user by image analysis is displayed in the posture information display area 105 set on the display of the information processing apparatus 100. Posture information display includes various displays such as, for example, a display in which a line capable of determining a predetermined posture is superimposed on a captured image of the user, and an indicator display that can determine whether the user's posture is good or bad. Is displayed. Details of these will be described later.

情報処理装置100は、さらに、ビデオカメラ101によって撮影される画像データに基づくユーザの姿勢解析を実行し、一定期間、例えば朝から夕方までの1日のワーキングタイムにおけるユーザの姿勢のサマリーを生成する。すなわち、オフィスにおいてユーザが1日仕事をしている間の姿勢の推移を蓄積し、どのような姿勢が多くとられているかなどのサマリーを生成する。また、情報処理装置100は、さらに、ビデオカメラ101によって撮影される画像データや、マイク102の取得する音声データの解析によって、ユーザの行動解析を実行する。例えばPCに対して情報入力を行なっている時間や、電話をしている時間などの一連のユーザの行動を解析する。   The information processing apparatus 100 further executes a user posture analysis based on image data captured by the video camera 101, and generates a summary of the user posture during a certain period of time, for example, one day working time from morning to evening. . That is, the transition of the posture while the user is working for one day in the office is accumulated, and a summary such as what posture is often taken is generated. Further, the information processing apparatus 100 further performs user behavior analysis by analyzing image data captured by the video camera 101 and audio data acquired by the microphone 102. For example, a series of user actions such as a time for inputting information to the PC and a time for making a phone call are analyzed.

図2以下を参照して、本発明の情報処理装置の構成、および処理の詳細について説明する。図2は、本発明の情報処理装置の全体構成を示すブロック図である。なお、情報処理装置の実行するデータ処理は、情報処理装置の有するハードウェアと、コンピュータ・プログラムを適用することによって実行されるものであり、図2に示す図は、これらの各処理を処理機能別のブロックとして示したブロック図である。なお、情報処理装置のハードウェア構成の具体例については、後段で説明する。   Details of the configuration and processing of the information processing apparatus of the present invention will be described with reference to FIG. FIG. 2 is a block diagram showing the overall configuration of the information processing apparatus of the present invention. The data processing executed by the information processing apparatus is executed by applying the hardware of the information processing apparatus and a computer program. The diagram shown in FIG. It is the block diagram shown as another block. A specific example of the hardware configuration of the information processing apparatus will be described later.

カメラ101は、ユーザの画像を撮影する。マイク102は、ユーザの音声、その他の周囲の音声を取得する。入力手段201は、キーボード、マウスなどの入力手段である。入力情報解析部202は、カメラ101、マイク102を介して入力される情報に基づいて、ユーザの姿勢解析などを実行する。さらに、初期設定処理として実行されるユーザによる複数の姿勢の登録や、アラーム条件の登録などの処理を実行する。記憶部203は、これらの登録情報や、背景画像情報、カメラ101、マイク102を介して入力される情報に基づいて、入力情報解析部202が解析した結果データなどを格納する。   The camera 101 captures a user image. The microphone 102 acquires the user's voice and other surrounding voices. The input unit 201 is an input unit such as a keyboard or a mouse. The input information analysis unit 202 performs user posture analysis based on information input via the camera 101 and the microphone 102. Further, processing such as registration of a plurality of postures by the user and registration of alarm conditions, which are executed as initial setting processing, are executed. The storage unit 203 stores result data analyzed by the input information analysis unit 202 based on the registration information, background image information, information input via the camera 101 and the microphone 102, and the like.

入力情報解析部202は、カメラ101、マイク102を介して入力される画像情報および音声情報に基づくデータ解析を実行して、例えば以下のような処理を実行する。
(1)入力画像の解析に基づくユーザの姿勢解析結果に基づいて、アラーム出力、出力手段(ディスプレイ)204に対する姿勢情報出力を行なう。
(2)画像データに基づくユーザの姿勢解析を実行し、一定期間におけるユーザの姿勢のサマリーを生成する。
(3)画像データや、音声データの解析によって、ユーザの行動解析を実行する。
これらの処理の詳細については、後段で説明する。
The input information analysis unit 202 performs data analysis based on image information and audio information input via the camera 101 and the microphone 102, and executes, for example, the following processing.
(1) Based on the analysis result of the user based on the analysis of the input image, the alarm output and the attitude information output to the output means (display) 204 are performed.
(2) A user posture analysis based on the image data is executed, and a summary of the user posture over a certain period is generated.
(3) A user behavior analysis is executed by analyzing image data and audio data.
Details of these processes will be described later.

出力手段(ディスプレイ)204は、入力情報解析部202の生成した姿勢情報出力を行なう。   The output means (display) 204 outputs the posture information generated by the input information analysis unit 202.

図3に本発明の情報処理装置の実行する処理の全体シーケンスを説明するフローチャートを示す。まず、ステップS11において初期設定を実行する。初期設定処理は、ユーザのいない背景画像の取得、アラーム条件設定処理、さらに、姿勢サマリーや、行動解析などの解析を行なう期間の設定などの処理である。ユーザのいない背景画像は、ユーザの撮影画像からユーザのみを抽出する際に利用される。   FIG. 3 shows a flowchart for explaining the overall sequence of processing executed by the information processing apparatus of the present invention. First, initial setting is performed in step S11. The initial setting processing is processing such as acquisition of a background image without a user, alarm condition setting processing, and setting of a period for performing analysis such as posture summary and behavior analysis. The background image without the user is used when extracting only the user from the captured image of the user.

ステップS12において、複数の姿勢登録処理が行なわれる。これは、予め複数の姿勢をデータベースとしての記憶手段203に登録する処理である。この姿勢登録は、ユーザの様々な姿勢をカメラ102が撮影し、所定の姿勢の際に、ユーザが入力手段201を介して登録コマンドを入力することによって行なわれる。   In step S12, a plurality of posture registration processes are performed. This is a process of registering a plurality of postures in advance in the storage means 203 as a database. This posture registration is performed when the camera 102 captures various postures of the user and the user inputs a registration command via the input unit 201 when the posture is a predetermined posture.

これらの処理の終了後、ステップS13において、ユーザのモニタリングが開始され、
(1)入力画像の解析に基づくユーザの姿勢解析結果に基づいて、アラーム出力、出力手段(ディスプレイ)204に対する姿勢情報出力、
(2)画像データに基づくユーザの姿勢解析を実行し、一定期間におけるユーザの姿勢のサマリーを生成、
(3)画像データや、音声データの解析によって、ユーザの行動解析、
これらの処理が実行される。
After completion of these processes, user monitoring is started in step S13.
(1) Based on the user's posture analysis result based on the analysis of the input image, alarm output, posture information output to the output means (display) 204,
(2) Execute user posture analysis based on image data and generate a summary of user posture over a certain period of time,
(3) Analysis of user behavior by analysis of image data and audio data,
These processes are executed.

ステップS12における姿勢登録処理の具体例について、図4以下を参照して説明する。例えば、図4(a)〜(d)に示すような様々な異なるポーズをユーザがとり、これらの姿勢を登録姿勢情報として設定するものとする。図4(a)〜(d)は、カメラ101による撮影画像を示している。入力情報解析部202は、これらの撮影画像に基づいて、記憶手段に各姿勢に対応するパラメータを登録する。   A specific example of the posture registration process in step S12 will be described with reference to FIG. For example, assume that the user takes various different poses as shown in FIGS. 4A to 4D and sets these postures as registered posture information. 4A to 4D show images taken by the camera 101. FIG. Based on these captured images, the input information analysis unit 202 registers parameters corresponding to each posture in the storage unit.

登録されるパラメータの例を図5に示す。図5に示すように、ユーザによる登録姿勢(a)〜(d)の各々に対応して、以下の各データが登録される。
*頭部垂直長(xh)
*胴体垂直長(xt)
*全体垂直長(xa)
*頭部重心位置(x1,y1)
*胴体重心位置(x2,y2)
*全体重心位置(x3、Y3)
*垂直軸からの頭部の傾き(α度)
*垂直軸からの胴体の傾き(β度)
*垂直軸からの全体の傾き(δ度)
*垂直軸からの肩の傾き(γ度)
*ポリゴン頂点位置((px1、py1)、(px2、py2)・・・、(pxn、pyn))
*評価判定情報(Good,Badなど)
これらのデータがユーザの登録姿勢情報として記憶部203に格納される。
An example of registered parameters is shown in FIG. As shown in FIG. 5, the following data is registered corresponding to each of the registered postures (a) to (d) by the user.
* Head vertical length (xh)
* Vertical fuselage length (xt)
* Overall vertical length (xa)
* Head center of gravity (x1, y1)
* Body center of gravity (x2, y2)
* Overall center of gravity (x3, Y3)
* Head tilt from the vertical axis (α degrees)
* Body tilt from the vertical axis (β degrees)
* Overall inclination from vertical axis (δ degrees)
* Inclination of shoulder from vertical axis (γ degree)
* Polygon vertex position ((px1, py1), (px2, py2) ..., (pxn, pyn))
* Evaluation judgment information (Good, Bad, etc.)
These data are stored in the storage unit 203 as user registration attitude information.

図6に上記各登録情報の具体的例を示す。頭部重心位置(x1,y1)は、図6に示す重心221、胴体重心位置(x2,y2,)は、図6に示す重心222、垂直軸からの頭部の傾き(α度)は、図6に示す垂直軸230と、頭部の傾きに基づいて生成されるライン231とのなす角[α]、垂直軸からの胴体の傾き(β度)は、図6に示す垂直軸230と、胴体の傾きに基づいて生成されるライン232とのなす角[β]、垂直軸からの全体の傾き(δ度)は、図6に示す垂直軸230と全体の傾きに基づいて生成されるライン234とのなす角〔δ〕、垂直軸からの肩の傾き(γ度)は、図6に示す垂直軸230と、肩の傾きに基づいて生成されるライン233とのなす角[γ]に相当する。なお、これらのデータの算出手法の詳細については、データ解析処理の欄において説明する。   FIG. 6 shows a specific example of each of the registration information. The head center-of-gravity position (x1, y1) is the center of gravity 221 shown in FIG. 6, the trunk center-of-gravity position (x2, y2,) is the center of gravity 222 shown in FIG. 6, and the inclination of the head from the vertical axis (α degrees) is The angle [α] formed between the vertical axis 230 shown in FIG. 6 and the line 231 generated based on the head inclination, and the trunk inclination (β degrees) from the vertical axis are the same as the vertical axis 230 shown in FIG. The angle [β] formed with the line 232 generated based on the tilt of the fuselage and the overall tilt (δ degrees) from the vertical axis are generated based on the vertical tilt shown in FIG. 6 and the overall tilt. The angle [δ] formed by the line 234 and the inclination (γ degree) of the shoulder from the vertical axis are the angle [γ] formed by the vertical axis 230 shown in FIG. 6 and the line 233 generated based on the inclination of the shoulder. It corresponds to. Details of these data calculation methods will be described in the column of data analysis processing.

これらの各パラメータの他に、良い姿勢(Good)であるか悪い姿勢(Bad)であるかなどを示す評価判定情報を登録する。これは、ユーザの判断に基づいて入力することができる。あるいは、予め良い姿勢であると判断されるパラメータを持つ良い模範姿勢対応のデータを情報処理装置内に記録済みデータとして保持し、この模範姿勢データと、ユーザによって新たに登録された姿勢データとを比較照合して、模範姿勢データに近いパラメータを持つ登録データを良い姿勢(Good)の登録情報とし、模範姿勢データと大きく異なるパラメータを持つ登録データを悪い姿勢(Bad)の登録情報とする設定としてもよい。   In addition to these parameters, evaluation determination information indicating whether the posture is good (Good) or bad (Bad) is registered. This can be input based on user judgment. Alternatively, data corresponding to a good model posture having a parameter determined to be a good posture in advance is stored as recorded data in the information processing apparatus, and this model posture data and posture data newly registered by the user are stored. As a setting for performing comparison and collation, registration data having parameters close to the model posture data is registered as good posture (Good) registration information, and registration data having parameters significantly different from the model posture data is registered as bad posture (Bad) registration information. Also good.

次に、図2に示す情報解析部202の具体的な構成および処理について、図7以下を参照して説明する。図7は、入力情報解析部202の具体的な構成を示すブロック図である。   Next, a specific configuration and processing of the information analysis unit 202 illustrated in FIG. 2 will be described with reference to FIG. FIG. 7 is a block diagram showing a specific configuration of the input information analysis unit 202.

カメラ101から入力されたユーザを含む撮影画像データは、背景画像情報削除処理部251に入力され、背景画像情報削除処理が実行される。先に図3を参照して説明したステップS11の初期設定処理において、撮影され記憶部203に格納済みのユーザのいない背景画像と、カメラ101から入力されたユーザを含む撮影画像データとを比較して、両画像の一致画像部を削除することで背景画像情報削除処理が実行される。   The captured image data including the user input from the camera 101 is input to the background image information deletion processing unit 251 and background image information deletion processing is executed. In the initial setting process in step S11 described above with reference to FIG. 3, the background image without a user that has been captured and stored in the storage unit 203 is compared with the captured image data including the user input from the camera 101. Thus, the background image information deletion process is executed by deleting the matching image portion of both images.

なお、さらに、例えば目的とする認識対象オブジェクトである人物のスキン(皮膚)領域を抽出するために、カラーフィルタリングを適用する構成としてもよい。スキン検出アルゴリズムとしては、例えば文献、[A. Jaimes. Conceptual Structures and Computational Methods for Indexing and Organization of Visual Information, Ph.D. Thesis, Department of Electrical Engineering, Columbia University, February 2003]に記述されたアルゴリズムをベースとすることが可能である。   Further, for example, color filtering may be applied in order to extract a human skin (skin) region that is a target recognition target object. As the skin detection algorithm, for example, the algorithm described in the literature [A. Jaimes. Conceptual Structures and Computational Methods for Indexing and Organization of Visual Information, Ph.D. Thesis, Department of Electrical Engineering, Columbia University, February 2003] is used. It can be based.

スキン領域抽出アルゴリズムについて説明する。まず、入力する各画像フレーム[f]の画素値データをHSVカラー空間座標へ展開する。HSVカラー空間座標は、色相(H)、彩度(S)、輝度(V)の3次元座標である。このHSV空間において、特定の領域がスキン(皮膚)のカラー領域に対応する。 The skin area extraction algorithm will be described. First, the pixel value data of each input image frame [f i ] is expanded into HSV color space coordinates. The HSV color space coordinates are three-dimensional coordinates of hue (H), saturation (S), and luminance (V). In the HSV space, a specific area corresponds to a skin color area.

各フレーム[f]の画素値データ中、HSVカラー空間座標におけるスキン(皮膚)のカラー領域に対応する画素をスキン画像領域として判定し、HSVカラー空間座標におけるスキン(皮膚)のカラー領域以外に属する画素データは、スキン領域以外であると判定する。 Among the pixel value data of each frame [f i ], a pixel corresponding to the color area of the skin (skin) in the HSV color space coordinates is determined as a skin image area, and other than the color area of the skin (skin) in the HSV color space coordinates. The pixel data to which it belongs is determined to be outside the skin area.

上述のカラーフィルタリングによるスキン領域の抽出は、カメラ101から入力する各フレーム[f]各々に対して実行される。ただし、このカラーフィルタリング処理によっても、人のスキン(皮膚)と類似する画素値を持つ例えば壁やテーブルなどスキン(皮膚)領域以外の領域がスキン(皮膚)領域と判断される場合がある。 The extraction of the skin region by the color filtering described above is executed for each frame [f i ] input from the camera 101. However, even with this color filtering process, a region other than a skin (skin) region such as a wall or a table having a pixel value similar to a human skin (skin) may be determined as a skin (skin) region.

これを避けるためには、カラーフィルタリングによって抽出されたスキン領域をグルーピングし、スキン領域として判定された隣接する画素の集合をグループとして設定し、その境界を設定した境界領域としてのバウンディングボックスSbbを検出する。なお、一定の大きさより小さい領域は排除する。次に、バウンディングボックスSbbと同一の中心を設定したバウンディングボックスSbbの近接領域を含むアクティブバウンディングボックスAbbを設定し、このアクティブバウンディングボックスAbb内においてフレーム間で動きが検出されているか否かを判定する。動きの有無は、現フレームと過去に数フレーム遡ったフレーム間の差分情報に基づいて判定可能である。この処理によって動きのある領域がスキン領域、すなわち人物であると判定する。 In order to avoid this, skin areas extracted by color filtering are grouped, a set of adjacent pixels determined as the skin area is set as a group, and a bounding box S bb as a boundary area in which the boundary is set is set. To detect. Note that areas smaller than a certain size are excluded. Then, set the active bounding box A bb comprising a contiguous area of the bounding box S bb and bounding boxes S bb set to the same center, or motion between frames is detected within this active bounding box A bb not Determine whether. The presence / absence of motion can be determined based on difference information between the current frame and a frame that is several frames back in the past. By this processing, it is determined that the region with movement is a skin region, that is, a person.

背景画像情報削除処理部251における背景画像情報削除処理が済んだ画像データは、画像処理部252に入力されて、人物(ユーザ)の画像を示すピクセル集合を明確にするための処理がなされる。具体手的には、スムージング処理、クロージング処理、ピクセルグループ化処理などが実行される。これは、背景画像削除処理の過程で誤って削除されてしまった人物の構成画素などを補填する処理や、輪郭をなめらかにするスムージング処理や、とびとびの画素を1つの人物を構成するようにグループ化する処理として実行される。この処理によって、少なくとも人物(ユーザ)の輪郭が明確になった画像データが取得される。   The image data that has undergone the background image information deletion processing in the background image information deletion processing unit 251 is input to the image processing unit 252, and processing for clarifying a pixel set indicating a person (user) image is performed. Specifically, smoothing processing, closing processing, pixel grouping processing, and the like are executed. This is a grouping process that compensates for the constituent pixels of a person accidentally deleted in the process of background image deletion processing, smoothing processing for smoothing the outline, and skipping pixels to form one person. This process is executed as By this processing, image data in which the outline of at least a person (user) is clear is acquired.

次に、画像処理によって取得された人物(ユーザ)画像データは、姿勢判定処理部253に入力される。姿勢判定処理部253では、人物画像に基づく姿勢判定処理が実行される。   Next, the person (user) image data acquired by the image processing is input to the posture determination processing unit 253. In the posture determination processing unit 253, posture determination processing based on a person image is executed.

姿勢判定処理部253において実行される人物画像に基づく姿勢判定処理の詳細シーケンスについて、図8に示すフローチャートを参照して説明する。まず、姿勢判定処理部253は、ステップS101において、重心抽出処理を実行し、ステップS102において、重心からの放射状線を設定する。これらの処理について、図9を参照して説明する。   A detailed sequence of the posture determination process based on the person image executed in the posture determination processing unit 253 will be described with reference to the flowchart shown in FIG. First, the posture determination processing unit 253 executes gravity center extraction processing in step S101, and sets a radial line from the gravity center in step S102. These processes will be described with reference to FIG.

図9(a)は撮影画像から得られた人物(ユーザ)画像であるとする。この画像データに基づいて、図9(b)に示す人物の重心点261が算出される。この重心点241は、人物領域の占める画素分布に基づいて算出される。次にこの重心点241から複数の放射状の線が設定される。図9(b)に示す例では、水平、垂直ラインおよびこれらのラインから45度の角度を持つラインを設定した例であり、4本のラインが設定される。   FIG. 9A is a person (user) image obtained from a captured image. Based on this image data, the center of gravity 261 of the person shown in FIG. 9B is calculated. The barycentric point 241 is calculated based on the pixel distribution occupied by the person area. Next, a plurality of radial lines are set from the barycentric point 241. The example shown in FIG. 9B is an example in which horizontal and vertical lines and lines having an angle of 45 degrees from these lines are set, and four lines are set.

次に、図8に示すフローのステップS103において、放射状線のオブジェクト短部の点を検出し、ステップS104において、この端部を結んだポリゴン(多角形)を生成する。図9(b)に示すポリゴン(多角形)262である。   Next, in step S103 of the flow shown in FIG. 8, the point of the object short portion of the radial line is detected, and in step S104, a polygon (polygon) connecting the end portions is generated. This is the polygon (polygon) 262 shown in FIG.

次に、ステップS105において、人物画像データの構成画素数に基づくヒストグラムを水平(X)軸、および垂直(Y)軸、各々について生成する。図10(c)にヒストグラムの例を示す。水平(X)軸、および垂直(Y)軸、各々について画素数に基づくヒストグラム263,264が生成される。   Next, in step S105, a histogram based on the number of constituent pixels of the human image data is generated for each of the horizontal (X) axis and the vertical (Y) axis. FIG. 10C shows an example of a histogram. Histograms 263 and 264 based on the number of pixels are generated for the horizontal (X) axis and the vertical (Y) axis, respectively.

次に、ステップS106において、垂直(Y)軸ヒストグラムの最小値ポイントを検出する。図10(c)に示す例では、ポイント265である。ステップS107において、垂直軸ヒストグラムの最小部を首と判定して頭部、および胴体部を識別する。すなわち、図10(c)に示す例では、ポイント265の位置を人物の首を構成するポイントであると判定し、その上部を頭部、下部を胴体と判断する。   Next, in step S106, the minimum value point of the vertical (Y) axis histogram is detected. In the example shown in FIG. In step S107, the minimum part of the vertical axis histogram is determined to be the neck, and the head and torso parts are identified. That is, in the example shown in FIG. 10C, it is determined that the position of the point 265 is a point constituting the person's neck, and the upper part is determined as the head and the lower part is determined as the torso.

次に、ステップS108において、頭部、胴体の各々に楕円を対応付けて、対応付けた楕円の長軸、短軸の長さを算出し、頭部、胴体の重心を求め、さらに、各楕円に基づいて、頭部、胴体の各々の傾き、肩の傾き(垂直軸または水平軸からの傾き)をめる。   Next, in step S108, an ellipse is associated with each of the head and torso, the major and minor axes of the associated ellipse are calculated, the center of gravity of the head and torso is obtained, and each ellipse is further calculated. Based on the above, the inclination of each of the head and torso and the inclination of the shoulder (inclination from the vertical axis or the horizontal axis) is obtained.

図11を参照して、この処理について説明する。まず、図11(d)に示すように、頭部、胴体の各々に楕円271,272を対応付ける。この処理は、例えば、頭部対応楕円271は、頭部の輪郭に内接する楕円、あるいは外接する楕円を設定することによって行なわれる。胴体についても胴体の輪郭に内接する楕円、あるいは外接する楕円を設定することによって胴体対応楕円272が設定される。   This process will be described with reference to FIG. First, as shown in FIG. 11D, ellipses 271 and 272 are associated with the head and the trunk, respectively. This process is performed, for example, by setting the ellipse 271 corresponding to the head to be inscribed in the head outline or circumscribed. Also for the trunk, the trunk corresponding ellipse 272 is set by setting an ellipse that is inscribed or circumscribed to the contour of the trunk.

次に、頭部、胴体の各々に対応付けた楕円271,272の長軸、短軸を設定し、これらの交点を頭部、胴体の重心273,274として求める。さらに、各楕円271,272に基づいて、頭部、胴体の各々の傾き(垂直軸または水平軸からの傾き)を求め、さらに、人物の輪郭に基づいて肩の傾きを示すライン275に基づいて、肩の傾き(垂直軸または水平軸からの傾き)を求める。   Next, the major axis and the minor axis of the ellipses 271 and 272 associated with the head and torso are set, and the intersection of these is obtained as the center of gravity 273 and 274 of the head and torso. Further, based on each ellipse 271, 272, the inclination of each of the head and torso (inclination from the vertical axis or horizontal axis) is obtained, and further, based on a line 275 indicating the inclination of the shoulder based on the contour of the person. Find the shoulder tilt (tilt from the vertical or horizontal axis).

これらの各パラメータについて、図12を参照して説明する。図12(e)には、頭部、胴体の各々に対応付けた楕円271,272の長軸、短軸の交点としての頭部、胴体の重心273,274を示し、さらに、垂直軸290に対する頭部の傾き[α]、胴体の傾き[β]、肩の傾き[γ]を示している。ライン291は、頭部に対応付けられた楕円の長軸方向に延びるラインである。ライン292は、胴体に対応付けられた楕円の長軸方向に延びるラインである。ライン293は、人物の輪郭に基づいて求められる肩の傾きを示すラインである。
同様に、頭部と胴体の両方に対応付けた楕円276と重心277が算出され、楕円276について、その長軸方向に延びるライン294を得、垂直軸290に対する全体の傾き〔δ〕が得られる。
Each of these parameters will be described with reference to FIG. FIG. 12E shows the center of gravity 273 and 274 of the head and torso as intersections of the major and minor axes of the ellipses 271 and 272 associated with the head and torso, respectively, and further, with respect to the vertical axis 290. The head tilt [α], the trunk tilt [β], and the shoulder tilt [γ] are shown. The line 291 is a line extending in the major axis direction of the ellipse associated with the head. The line 292 is a line extending in the major axis direction of the ellipse associated with the trunk. A line 293 is a line indicating the shoulder inclination obtained based on the outline of the person.
Similarly, an ellipse 276 and a center of gravity 277 associated with both the head and the torso are calculated, and a line 294 extending in the major axis direction of the ellipse 276 is obtained, and an overall inclination [δ] with respect to the vertical axis 290 is obtained. .

このようにして、
*頭部垂直長(xh)
*胴体垂直長(xt)
*全体垂直長(xa)
*頭部重心位置(x1,y1)
*胴体重心位置(x2,y2,)
*全体重心位置(x3、Y3)
*垂直軸からの頭部の傾き(α度)
*垂直軸からの胴体の傾き(β度)
*垂直軸からの全体の傾き(δ度)
*垂直軸からの肩の傾き(γ度)
*ポリゴン頂点位置((px1、py1)、(px2、py2)・・・、(pxn、pyn))
これらのデータがユーザの姿勢に対応するパラメータとして取得される。
In this way
* Head vertical length (xh)
* Vertical fuselage length (xt)
* Overall vertical length (xa)
* Head center of gravity (x1, y1)
* Body center of gravity (x2, y2,)
* Overall center of gravity (x3, Y3)
* Head tilt from the vertical axis (α degrees)
* Body tilt from the vertical axis (β degrees)
* Overall inclination from vertical axis (δ degrees)
* Inclination of shoulder from vertical axis (γ degree)
* Polygon vertex position ((px1, py1), (px2, py2) ..., (pxn, pyn))
These data are acquired as parameters corresponding to the user's posture.

なお、先に、図5、図6を参照して説明したように、これらのパラメータは、登録姿勢情報のパラメータと同様のパラメータであり、図3に示すフローチャートのステップS12の姿勢登録処理では、上述したと同様の処理が実行されて、各登録姿勢に対応するパラメータの取得が行なわれ記憶部203に格納される。なお、登録姿勢情報には、これらのパラメータの他、図5を参照して説明したように、[Good]、[Bad]などの評価判定情報も含まれる。   As described above with reference to FIGS. 5 and 6, these parameters are the same as the parameters of the registered posture information. In the posture registration process in step S <b> 12 of the flowchart shown in FIG. 3, The same processing as described above is executed, and parameters corresponding to each registered posture are acquired and stored in the storage unit 203. Note that the registered attitude information includes evaluation determination information such as [Good] and [Bad] as described with reference to FIG. 5 in addition to these parameters.

図7に示す入力情報解析部202の構成において、データ登録部254は、各登録姿勢についてのパラメータを姿勢判定処理部253から受領して、入力手段からの登録コマンドの入力に基づいて、上述した各パラメータと、入力手段201から入力される評価判定情報を各登録姿勢情報の登録情報として記憶部203に記録する。   In the configuration of the input information analysis unit 202 illustrated in FIG. 7, the data registration unit 254 receives the parameters for each registered posture from the posture determination processing unit 253, and has been described above based on the input of the registration command from the input unit. Each parameter and evaluation determination information input from the input unit 201 are recorded in the storage unit 203 as registration information of each registered posture information.

図3に示すフローチャートのステップS13の情報入力、解析処理においても、ユーザの撮影画像について、図7に示す背景画像情報削除処理部251における背景画像情報削除処理、画像処理部252における人物(ユーザ)画像データの取得、姿勢判定処理部253における姿勢判定処理に基づいて算出される姿勢判定パラメータ、すなわち、
*頭部垂直長(xh)
*胴体垂直長(xt)
*全体垂直長(xa)
*頭部重心位置(x1,y1)
*胴体重心位置(x2,y2,)
*全体重心位置(x3、Y3)
*垂直軸からの頭部の傾き(α度)
*垂直軸からの胴体の傾き(β度)
*垂直軸からの全体の傾き(δ度)
*垂直軸からの肩の傾き(γ度)
*ポリゴン頂点位置((px1、py1)、(px2、py2)・・・、(pxn、pyn))
これらの姿勢判定パラメータの取得が実行される。
Also in the information input and analysis processing in step S13 of the flowchart shown in FIG. 3, for the user's captured image, the background image information deletion processing in the background image information deletion processing portion 251 shown in FIG. 7, and the person (user) in the image processing portion 252 Posture determination parameters calculated based on image data acquisition and posture determination processing in the posture determination processing unit 253, that is,
* Head vertical length (xh)
* Vertical fuselage length (xt)
* Overall vertical length (xa)
* Head center of gravity (x1, y1)
* Body center of gravity (x2, y2,)
* Overall center of gravity (x3, Y3)
* Head tilt from the vertical axis (α degrees)
* Body tilt from the vertical axis (β degrees)
* Overall inclination from vertical axis (δ degrees)
* Inclination of shoulder from vertical axis (γ degree)
* Polygon vertex position ((px1, py1), (px2, py2) ..., (pxn, pyn))
Acquisition of these posture determination parameters is executed.

なお、図7に示す入力情報解析部202の姿勢判定部253は、カメラ101から入力されるフレーム画像について、予め定めた間隔でフレームを選択して、上述の姿勢判定に基づく姿勢判定パラメータ算出処理を実行する。算出された姿勢判定パラメータは、姿勢分類処理部255に出力される。   Note that the posture determination unit 253 of the input information analysis unit 202 illustrated in FIG. 7 selects a frame at a predetermined interval for the frame image input from the camera 101, and performs posture determination parameter calculation processing based on the above-described posture determination. Execute. The calculated posture determination parameter is output to the posture classification processing unit 255.

姿勢分類処理部255は、所定フレーム間隔で算出されるフレーム対応の姿勢判定パラメータを入力する。すなわち、姿勢判定処理部253における姿勢判定処理に基づいて算出される姿勢判定パラメータを所定フレーム間隔で入力する。   The posture classification processing unit 255 receives a frame-based posture determination parameter calculated at a predetermined frame interval. That is, posture determination parameters calculated based on the posture determination processing in the posture determination processing unit 253 are input at predetermined frame intervals.

姿勢分類処理部255は、入力するフレーム対応の姿勢判定パラメータと、登録済みの登録姿勢情報に対応するパラメータ、すなわち、先に図5を参照して説明した登録姿勢情報に対応するパラメータとの比較を実行する。このパラメータ比較処理において、入力するフレーム対応の姿勢判定パラメータに最も近いパラメータ値を持つ登録姿勢情報を、そのフレームにおけるユーザの姿勢であると判定する。   The posture classification processing unit 255 compares the input posture determination parameter corresponding to the frame with the parameter corresponding to the registered posture information that has been registered, that is, the parameter corresponding to the registered posture information described above with reference to FIG. Execute. In this parameter comparison process, it is determined that the registered posture information having the parameter value closest to the input posture determination parameter corresponding to the frame is the posture of the user in the frame.

さらに、姿勢分類処理部255の姿勢分類情報は、フィードバック姿勢解析情報生成部256に出力される。フィードバック姿勢解析情報生成部256は、類似パラメータを持つと判定された登録姿勢情報に対応して設定された評価判定情報が良い姿勢[Good]として設定されているか、悪い姿勢[Bad]として登録されているかを判定し、これらの評価判定情報を情報出力部258を介して、出力手段(ディスプレイ)204に出力する。   Further, the posture classification information of the posture classification processing unit 255 is output to the feedback posture analysis information generation unit 256. The feedback posture analysis information generation unit 256 sets the evaluation determination information set corresponding to the registered posture information determined to have similar parameters as a good posture [Good] or as a bad posture [Bad]. The evaluation determination information is output to the output means (display) 204 via the information output unit 258.

図13に、評価判定情報の出力例を示す。図13は、ユーザの利用する情報処理装置のディスプレイであり、ディスプレイの部分領域に姿勢インジケータ301が表示される。姿勢インジケータ301はスライダ302が表示され、モニタリングされているユーザの現在の姿勢が良い[Good]であるか悪い[Bad]であるかを示す設定となっている。姿勢インジケータ301の中央部領域が良い[Good]姿勢であることを示し、姿勢インジケータ301の両サイドが悪い[Bad]姿勢であることを示している。フィードバック姿勢解析情報生成部256は、類似パラメータを持つと判定された登録姿勢情報に対応して設定された評価判定情報が良い姿勢[Good]として設定されているか、悪い姿勢[Bad]として登録されているかの評価判定情報に基づいて、スライダ302を左右に移動させて表示する。   FIG. 13 shows an output example of the evaluation determination information. FIG. 13 shows a display of an information processing apparatus used by a user, and a posture indicator 301 is displayed in a partial area of the display. The posture indicator 301 is displayed with a slider 302 and is set to indicate whether the current posture of the user being monitored is good [Good] or bad [Bad]. The central area of the posture indicator 301 indicates a good [Good] posture, and both sides of the posture indicator 301 indicate a bad [Bad] posture. The feedback posture analysis information generation unit 256 sets the evaluation determination information set corresponding to the registered posture information determined to have similar parameters as a good posture [Good] or as a bad posture [Bad]. Based on the evaluation determination information, the slider 302 is moved left and right for display.

ユーザは、このインジケータの表示を観察することで、自分の姿勢が良いか悪いかをリアルタイムに確認することができる。また、予め定めたアラーム設定条件によって、情報処理装置のスピーカを介する警告音によるアラームや、ディスプレイに対するアラーム表示などを行なう構成としてもよい。   The user can confirm in real time whether his / her posture is good or bad by observing the display of the indicator. Moreover, it is good also as a structure which performs the alarm by the warning sound through the speaker of information processing apparatus, the alarm display with respect to a display, etc. according to a predetermined alarm setting condition.

ユーザは、先に、図3のフローにおけるステップS11の初期設定において、例えば、予め定めた時間以上、悪いと判定される姿勢が継続した場合にアラームを出力するなどのアラーム条件を設定し、記憶部203に登録情報を格納する。フィードバック姿勢解析情報生成部256は、このアラーム条件と、ユーザの画像解析による姿勢検出情報を比較して、アラーム出力条件を満たすか否かを判定して、アラーム出力条件を満たすと判断した場合は、情報出力部258を介してアラーム出力を実行する。   In the initial setting in step S11 in the flow of FIG. 3, the user first sets and stores an alarm condition such as outputting an alarm when a posture determined to be bad continues for a predetermined time or longer, for example. The registration information is stored in the unit 203. When the feedback posture analysis information generation unit 256 compares the alarm condition with the posture detection information based on the user's image analysis to determine whether or not the alarm output condition is satisfied, The alarm output is executed via the information output unit 258.

図14を参照して、姿勢分類処理部255と、フィードバック姿勢解析情報生成部256の実行する処理を中心とした処理シーケンスについて説明する。ステップS301においてモニタ画像に基づくユーザ検出処理がなされ、ステップS302において、ユーザ検出情報に基づく姿勢判定パラメータが選択フレームに基づいて求められる。これらの処理は、姿勢判定処理部253の処理として実行される。   With reference to FIG. 14, a processing sequence centering on processing executed by the posture classification processing unit 255 and the feedback posture analysis information generation unit 256 will be described. In step S301, a user detection process based on the monitor image is performed. In step S302, a posture determination parameter based on the user detection information is obtained based on the selected frame. These processes are executed as processes of the posture determination processing unit 253.

姿勢分類処理部255は、ステップS303において、姿勢判定処理部253から入力するフレーム対応の姿勢判定パラメータと、登録済みの登録姿勢情報に対応するパラメータ、すなわち、先に図5を参照して説明した登録姿勢情報に対応するパラメータとの比較を実行する。   At step S303, the posture classification processing unit 255 has received the frame-related posture determination parameters input from the posture determination processing unit 253 and the parameters corresponding to the registered posture information that has already been registered, that is, described above with reference to FIG. Comparison with the parameter corresponding to the registered posture information is executed.

このパラメータ比較処理において、入力するフレーム対応の姿勢判定パラメータに最も近いパラメータ値を持つ登録姿勢情報を、そのフレームにおけるユーザの姿勢であると判定する。   In this parameter comparison process, it is determined that the registered posture information having the parameter value closest to the input posture determination parameter corresponding to the frame is the posture of the user in the frame.

ステップS304では、フィードバック姿勢解析情報生成部256は、類似パラメータを持つと判定された登録姿勢情報に対応して設定された評価判定情報が良い姿勢[Good]として設定されているか、悪い姿勢[Bad]として登録されているかを判定し、これらの評価判定情報に基づいて、出力手段(ディスプレイ)204に提示された姿勢インジケータ301(図13参照)のスライダ302を左右に移動させて表示する。   In step S304, the feedback posture analysis information generation unit 256 sets the evaluation determination information set corresponding to the registered posture information determined to have similar parameters as a good posture [Good] or a bad posture [Bad ], And the slider 302 of the posture indicator 301 (see FIG. 13) presented on the output means (display) 204 is moved to the left and right based on the evaluation determination information.

さらに、ステップS305において、フィードバック姿勢解析情報生成部255は、ユーザによって予め設定されたアラーム条件と、ユーザの画像解析による姿勢検出情報を比較して、アラーム出力条件を満たすか否かを判定する。アラーム出力条件を満たすと判断した場合は、ステップS306において、情報出力部258を介してアラーム出力を実行する。   In step S305, the feedback posture analysis information generation unit 255 compares the alarm condition preset by the user with the posture detection information based on the user image analysis, and determines whether the alarm output condition is satisfied. If it is determined that the alarm output condition is satisfied, alarm output is executed via the information output unit 258 in step S306.

このように、ユーザは、このインジケータの表示を観察することで、自分の姿勢が良いか悪いかをリアルタイムに確認することができ、また、アラームによって悪い姿勢であることが通知され、姿勢を正すことが可能となる。   In this way, the user can confirm in real time whether his / her posture is good or not by observing the display of this indicator, and is notified that the posture is bad by an alarm and corrects his / her posture. It becomes possible.

なお、出力手段(ディスプレイ)204に出力する表示は、図13を参照して説明したインジケータに限らず、例えば、先に図12等を参照して説明した胴体や頭、肩の傾きを示すラインをユーザの画像に重畳させて表示する構成としてもよい。例えば、図15に示すように、姿勢情報表示部312に、先に図12等を参照して説明した胴体や頭、肩の傾きを示すラインをユーザの画像に重畳させて表示する。ユーザは、この表示データを見るこことで、自分の姿勢の現在の状況を明確に知ることが可能となる。   Note that the display output to the output means (display) 204 is not limited to the indicator described with reference to FIG. 13, for example, a line indicating the inclination of the trunk, head, and shoulder described above with reference to FIG. 12 and the like. It is good also as a structure which superimposes and displays on a user's image. For example, as shown in FIG. 15, the posture information display unit 312 displays a line indicating the tilt of the trunk, head, and shoulder described above with reference to FIG. The user can clearly know the current state of his / her posture here when viewing the display data.

次に図7に示す入力情報解析部202における姿勢解析情報生成部257の処理について説明する。姿勢解析情報生成部257は、姿勢解析情報の生成処理と、行動解析情報の生成処理を実行する。まず、姿勢解析情報生成処理について説明する。   Next, processing of the posture analysis information generation unit 257 in the input information analysis unit 202 illustrated in FIG. 7 will be described. The posture analysis information generation unit 257 executes posture analysis information generation processing and behavior analysis information generation processing. First, posture analysis information generation processing will be described.

姿勢解析情報生成部257の生成する姿勢解析情報の一例を図16に示す。図16に示す姿勢解析情報は、あるユーザの1日のワーキングタイムにおける姿勢の種類と、その姿勢をとっている時間を表として示した姿勢解析情報である。すなわち測定時間を2005、8、12のAM10:00〜PM5:30として、その間にカメラ101を介して取得されるユーザの画像データについて、所定フレーム間隔で処理を実行し、選択フレームの姿勢判定パラメータを求め、登録姿勢情報の登録パラメータとの比較を行い、最も類似するパラメータを持つ登録姿勢を選択して、測定フレーム間隔において、その登録姿勢が保持されたものとして判定して、姿勢の時間の推移に伴う履歴を取得する。この情報を解析することで1日のユーザの姿勢分布を算出し、図16に示すような姿勢解析サマリーが生成される。   An example of posture analysis information generated by the posture analysis information generation unit 257 is shown in FIG. The posture analysis information shown in FIG. 16 is posture analysis information that shows a table of the types of postures of a certain user during the working time of one day and the time taken for the posture. In other words, the measurement time is set to AM10: 0 to PM5: 30 of 2005, 8, and 12, and the user image data acquired through the camera 101 during that time is processed at a predetermined frame interval, and the posture determination parameter of the selected frame Is compared with the registered parameters of the registered posture information, the registered posture having the most similar parameter is selected, and it is determined that the registered posture is held in the measurement frame interval. Get the history associated with the transition. By analyzing this information, the daily posture distribution of the user is calculated, and a posture analysis summary as shown in FIG. 16 is generated.

図16に示すデータは、ユーザは2005、8、12のAM10:00〜PM5:30の期間において、(a)に示す姿勢を40%、(b)に示す姿勢を20%、(c)に示す姿勢を25%、(d)に示す姿勢を15%していたことを示す情報である。ユーザは、これらの姿勢情報サマリーを見ることで、1日の姿勢状況を容易に把握することができる。   In the data shown in FIG. 16, the user shows that the posture shown in (a) is 40%, the posture shown in (b) is 20%, and (c) in the period of AM10: 0 to PM5: 30 of 2005, 8, and 12. This is information indicating that the posture shown is 25% and the posture shown in (d) is 15%. By viewing these posture information summaries, the user can easily grasp the posture status of the day.

図17に示すフローチャートを参照して、姿勢解析情報生成部257の実行する姿勢解析処理を中心とした処理シーケンスについて説明する。ステップS401においてモニタ画像に基づくユーザ検出処理がなされ、ステップS402において、ユーザ検出情報に基づく姿勢判定パラメータが選択フレームに基づいて求められる。これらの処理は、姿勢判定処理部253の処理として実行される。   With reference to the flowchart shown in FIG. 17, a processing sequence centering on the posture analysis processing executed by the posture analysis information generation unit 257 will be described. In step S401, a user detection process based on the monitor image is performed. In step S402, an attitude determination parameter based on the user detection information is obtained based on the selected frame. These processes are executed as processes of the posture determination processing unit 253.

次に、ステップS403において、姿勢分類処理部255は、姿勢判定処理部253から入力するフレーム対応の姿勢判定パラメータと、登録済みの登録姿勢情報に対応するパラメータ、すなわち、先に図5を参照して説明した登録姿勢情報に対応するパラメータとの比較を実行し、入力するフレーム対応の姿勢判定パラメータに最も近いパラメータ値を持つ登録姿勢情報を、そのフレームにおけるユーザの姿勢であると判定する。   Next, in step S403, the posture classification processing unit 255 refers to the frame corresponding posture determination parameters input from the posture determination processing unit 253 and the parameters corresponding to the registered registered posture information, that is, with reference to FIG. Comparison with the parameter corresponding to the registered posture information described above is executed, and the registered posture information having the parameter value closest to the input posture determination parameter corresponding to the frame is determined to be the posture of the user in the frame.

ステップS404以降が、姿勢解析情報生成部257の処理であり、まず、ステップS404において、姿勢分類処理部255が選択した登録姿勢情報を姿勢解析情報(サマリー)生成用データとして登録する。例えば、姿勢判定パラメータを取得するフレーム時間間隔が1分であれば、各フレームにおいて選択された登録姿勢情報に相当する姿勢が1分継続しているものとしてデータ登録する。   Step S404 and subsequent steps are processing of the posture analysis information generation unit 257. First, in step S404, the registered posture information selected by the posture classification processing unit 255 is registered as posture analysis information (summary) generation data. For example, if the frame time interval for acquiring the posture determination parameter is 1 minute, data is registered as the posture corresponding to the registered posture information selected in each frame is continued for 1 minute.

次に、ステップS405において、予め定めた姿勢解析情報の測定時間T1が経過したか否かを判定する。例えばAM10:00〜PM:5:00などの測定時間が設定される。測定開始からの経過時間T1(例えば7時間)が経過した場合は、測定を終了し、ステップS407に進む。測定時間が残っている場合は、ステップS406において、測定間隔[t]が経過したか否かを判定する。これは、姿勢判定パラメータを取得するフレーム時間間隔に相当する。姿勢解析情報の測定時間T1や、姿勢判定パラメータを取得するフレーム時間間隔tは、ユーザによる初期設定において設定される。   Next, in step S405, it is determined whether or not a predetermined measurement time T1 of posture analysis information has elapsed. For example, a measurement time such as AM 10:00 to PM: 5:00 is set. If an elapsed time T1 (for example, 7 hours) has elapsed since the start of measurement, the measurement is terminated and the process proceeds to step S407. If the measurement time remains, it is determined in step S406 whether the measurement interval [t] has elapsed. This corresponds to a frame time interval for acquiring the posture determination parameter. The measurement time T1 of posture analysis information and the frame time interval t for obtaining posture determination parameters are set in the initial setting by the user.

ステップS406において、測定間隔[t]が経過した場合は、その時点のフレームに基づいて、ステップS401〜S404の処理が実行され、姿勢解析情報(サマリー)生成用データとして登録する。ステップS405において、予め定めた姿勢解析情報の測定時間T1が経過したと判定されると、測定を終了し、ステップS407に進む。   If the measurement interval [t] has elapsed in step S406, the processing in steps S401 to S404 is executed based on the frame at that time, and registered as posture analysis information (summary) generation data. If it is determined in step S405 that the predetermined posture analysis information measurement time T1 has elapsed, the measurement ends, and the process proceeds to step S407.

ステップS407では、姿勢解析情報(サマリ−)を生成し、記憶部203に記憶する。姿勢解析情報(サマリ−)は、例えば図16を参照して説明した解析情報である。ステップS408において、入力手段201を介してユーザからの姿勢解析情報出力要求があったと判定されると、ステップS409において、図7に示す情報出力部258を介して出力手段(ディスプレイ)204に解析情報(例えば図16に示す解析情報)を出力する。   In step S407, posture analysis information (summary) is generated and stored in the storage unit 203. The posture analysis information (summary) is the analysis information described with reference to FIG. If it is determined in step S408 that there has been a posture analysis information output request from the user via the input unit 201, the analysis information is output to the output unit (display) 204 via the information output unit 258 shown in FIG. (For example, analysis information shown in FIG. 16) is output.

次に、姿勢解析情報生成部257の実行する行動解析処理について説明する。姿勢解析情報生成部257の実行する行動解析処理は、カメラ101によって撮影されるユーザの画像、およびマイク102によって取得される音声情報に基づいて実行される。   Next, behavior analysis processing executed by the posture analysis information generation unit 257 will be described. The behavior analysis process executed by the posture analysis information generation unit 257 is executed based on the user image captured by the camera 101 and the audio information acquired by the microphone 102.

例えば登録姿勢情報として、図18に示すように、図5を参照して説明した登録姿勢情報に、さらに行動情報を登録する。(a)に示す姿勢の場合は、キーボード操作などのPCの操作を行なっている行動状態であり、(b)に示す姿勢状態は休憩状態であるなどである。   For example, as the registered posture information, as shown in FIG. 18, action information is further registered in the registered posture information described with reference to FIG. The posture shown in (a) is an action state in which a PC operation such as a keyboard operation is performed, and the posture state shown in (b) is a resting state.

カメラ101によって撮影されるユーザの画像に基づく姿勢解析処理によって取得される姿勢判定パラメータに最も類似するパラメータを持つユーザの登録姿勢情報に基づいて、ユーザの作業を判定する。この判定処理によって、前述の姿勢解析情報と同様、例えば1日におけるユーザの行動解析情報が得られる。なお、この行動解析においては、マイク102によって取得される音圧情報に基づいて、ユーザが電話をしている、キーボードを操作しているなどの情報を取得し、解析情報の補助情報として利用することができる。   The user's work is determined based on the registered posture information of the user having the parameter most similar to the posture determination parameter acquired by the posture analysis process based on the user image captured by the camera 101. By this determination processing, for example, user behavior analysis information for one day is obtained as in the above-described posture analysis information. In this behavior analysis, based on the sound pressure information acquired by the microphone 102, information such as that the user is making a phone call or operating a keyboard is acquired and used as auxiliary information for analysis information. be able to.

姿勢解析情報生成部257の生成する行動解析情報の一例を図19に示す。図19に示す行動解析情報は、あるユーザの1日のワーキングタイムにおける行動の種類と、その行動をとっている時間を表として示した行動解析情報である。すなわち測定時間を2005、8、12のAM10:00〜PM5:30として、その間にカメラ101を介して取得されるユーザの画像データについて、所定フレーム間隔で処理を実行し、選択フレームの姿勢判定パラメータを求め、登録姿勢情報の登録パラメータとの比較を行い、最も類似するパラメータを持つ登録姿勢を選択して、測定フレーム間隔において、その登録姿勢が保持され、その姿勢に対応する行動が実行されていると判定して、時間の推移に伴う行動履歴を取得する。この情報に、マイクから取得される情報を加え、解析を実行することで1日のユーザの行動分布を算出し、図19に示すような行動解析サマリーが生成される。   An example of the behavior analysis information generated by the posture analysis information generation unit 257 is shown in FIG. The behavior analysis information shown in FIG. 19 is behavior analysis information that shows, as a table, the type of behavior of a certain user during the working time of the day and the time during which the user is taking the behavior. In other words, the measurement time is set to AM10: 0 to PM5: 30 of 2005, 8, and 12, and the user image data acquired through the camera 101 during that time is processed at a predetermined frame interval, and the posture determination parameter of the selected frame The registered posture information is compared with the registered parameters, the registered posture having the most similar parameter is selected, the registered posture is held at the measurement frame interval, and the action corresponding to the posture is executed. It is determined that there is an action history with time. The information obtained from the microphone is added to this information and the analysis is executed to calculate the daily user behavior distribution, and a behavior analysis summary as shown in FIG. 19 is generated.

図19に示すデータは、ユーザは2005、8、12のAM10:00〜PM5:30の期間において、(a)PC操作を40%、(b)電話を20%、(c)読書を25%、(d)休憩を15%していたことを示す情報である。ユーザは、これらの行動情報サマリーを見ることで、1日の行動状況を容易に把握することができる。   In the data shown in FIG. 19, the user has (a) PC operation 40%, (b) telephone 20%, and (c) reading 25% during the period of AM10: 0 to PM5: 30 of 2005, 8, 12 (D) Information indicating that the break was 15%. The user can easily grasp the daily behavior situation by viewing these behavior information summaries.

図20に示すフローチャートを参照して、姿勢解析情報生成部257の実行する行動解析処理を中心とした処理シーケンスについて説明する。ステップS501においてモニタ画像に基づくユーザ検出処理がなされ、ステップS502において、ユーザ検出情報に基づく姿勢判定パラメータが選択フレームに基づいて求められる。これらの処理は、姿勢判定処理部253の処理として実行される。   With reference to the flowchart shown in FIG. 20, the process sequence centering on the action analysis process which the attitude | position analysis information generation part 257 performs is demonstrated. In step S501, a user detection process based on the monitor image is performed. In step S502, a posture determination parameter based on the user detection information is obtained based on the selected frame. These processes are executed as processes of the posture determination processing unit 253.

次に、ステップS503において、姿勢分類処理部255は、姿勢判定処理部253から入力するフレーム対応の姿勢判定パラメータと、登録済みの登録姿勢情報に対応するパラメータ、すなわち、図18に示す登録姿勢情報に対応するパラメータとの比較を実行し、入力するフレーム対応の姿勢判定パラメータに最も近いパラメータ値を持つ登録姿勢情報に対応する姿勢および行動が、そのフレームにおけるユーザの姿勢と行動であると判定する。   Next, in step S503, the posture classification processing unit 255 receives the frame-related posture determination parameters input from the posture determination processing unit 253 and parameters corresponding to the registered posture information registered, that is, the registered posture information illustrated in FIG. Is compared with the parameter corresponding to the frame, and it is determined that the posture and behavior corresponding to the registered posture information having the parameter value closest to the input frame corresponding posture determination parameter are the posture and behavior of the user in the frame. .

ステップS504以降が、姿勢解析情報生成部257の処理であり、まず、ステップS504において、姿勢分類評理部255が選択した登録姿勢情報を行動解析情報(サマリー)生成用データとして登録する。例えば、姿勢判定パラメータを取得するフレーム時間間隔が1分であれば、各フレームにおいて選択された登録姿勢情報に相当する行動が1分継続しているものとしてデータ登録する。   Step S504 and subsequent steps are processing of the posture analysis information generation unit 257. First, in step S504, the registered posture information selected by the posture classification evaluation unit 255 is registered as behavior analysis information (summary) generation data. For example, if the frame time interval for acquiring the posture determination parameter is 1 minute, data is registered as an action corresponding to the registered posture information selected in each frame being continued for 1 minute.

次に、ステップS505において、予め定めた行動解析情報の測定時間T1が経過したか否かを判定する。例えばAM10:00〜PM:5:00などの測定時間が設定される。測定開始からの経過時間T1(例えば7時間)が経過した場合は、測定を終了し、ステップS507に進む。測定時間が残っている場合は、ステップS506において、測定間隔[t]が経過したか否かを判定する。これは、姿勢判定パラメータを取得するフレーム時間間隔に相当する。姿勢解析情報の測定時間T1や、姿勢判定パラメータを取得するフレーム時間間隔tは、ユーザによる初期設定において設定される。   Next, in step S505, it is determined whether or not a predetermined measurement time T1 of behavior analysis information has elapsed. For example, a measurement time such as AM 10:00 to PM: 5:00 is set. If an elapsed time T1 (for example, 7 hours) has elapsed since the start of measurement, the measurement is terminated and the process proceeds to step S507. If the measurement time remains, it is determined in step S506 whether the measurement interval [t] has elapsed. This corresponds to a frame time interval for acquiring the posture determination parameter. The measurement time T1 of posture analysis information and the frame time interval t for obtaining posture determination parameters are set in the initial setting by the user.

ステップS506において、測定間隔[t]が経過した場合は、その時点のフレームに基づいて、ステップS501〜S504の処理が実行され、行動解析情報(サマリー)生成用データとして登録する。ステップS505において、予め定めた姿勢解析情報の測定時間T1が経過したと判定されると、測定を終了し、ステップS507に進む。   If the measurement interval [t] has elapsed in step S506, the processing of steps S501 to S504 is executed based on the frame at that time, and registered as behavior analysis information (summary) generation data. If it is determined in step S505 that the predetermined posture analysis information measurement time T1 has elapsed, the measurement ends and the process proceeds to step S507.

ステップS507では、行動解析情報(サマリ−)を生成し、記憶部203に記憶する。行動解析情報(サマリ−)は、例えば図19を参照して説明した解析情報である。ステップS508において、入力手段201を介してユーザからの行動解析情報出力要求があったと判定されると、ステップS509において、図7に示す情報出力部258を介して出力手段(ディスプレイ)204に解析情報(例えば図19に示す解析情報)を出力する。   In step S507, behavior analysis information (summary) is generated and stored in the storage unit 203. The behavior analysis information (summary) is, for example, the analysis information described with reference to FIG. If it is determined in step S508 that there has been a request for behavior analysis information output from the user via the input unit 201, in step S509 analysis information is output to the output unit (display) 204 via the information output unit 258 shown in FIG. (For example, analysis information shown in FIG. 19) is output.

なお、図20に示すフローにおいてはマイクからの取得情報を利用した行動解析処理を行なっていないが、前述したようにマイクからの取得情報に基づいて、行動パターンを解析する処理を行なう構成としてもよい。   In the flow shown in FIG. 20, the behavior analysis process using the information acquired from the microphone is not performed. However, as described above, the process of analyzing the behavior pattern may be performed based on the information acquired from the microphone. Good.

このように、本発明の構成では、予め登録された登録姿勢情報とカメラ101から入力するユーザ画像の姿勢判定パラメータの比較によって、ユーザの姿勢を分類し、分類情報に基づいて、以下の処理、すなわち、
(1)ユーザの姿勢解析結果に基づいて、アラーム出力、出力手段(ディスプレイ)204に対する姿勢情報出力、
(2)一定期間のユーザの姿勢解析情報を生成して提供、
(3)一定期間のユーザの行動解析情報を生成して提供、
これらの処理を実行する構成とした。
As described above, in the configuration of the present invention, the posture of the user is classified by comparing the registered posture information registered in advance with the posture determination parameter of the user image input from the camera 101, and the following processing is performed based on the classification information: That is,
(1) Based on the user's posture analysis result, alarm output, posture information output to the output means (display) 204,
(2) Generate and provide user posture analysis information for a certain period,
(3) Generate and provide user behavior analysis information for a certain period,
It was set as the structure which performs these processes.

基本的に登録姿勢情報に基づくユーザの姿勢解析をリアルタイムで行なうことになり、入力するフレームに基づく解析結果は、登録姿勢情報に対応付けられた後は、不要となり、膨大な情報を蓄積すること不要となり、効率的な処理が実現される。   Basically, the posture analysis of the user based on the registered posture information is performed in real time, and the analysis result based on the input frame becomes unnecessary after being associated with the registered posture information, and a large amount of information is accumulated. This eliminates the need for efficient processing.

なお、上述の実施例では、姿勢分類処理部255において、入力フレーム対応の姿勢判定パラメータと、登録姿勢情報のパラメータとの比較に基づく類似判定処理によって、入力フレーム対応の姿勢をいずれかの登録姿勢情報に分類する処理を実行する構成とし、比較パラメータを図5に示す各パラメータ、すなわち、
*頭部垂直長(xh)
*胴体垂直長(xt)
*全体垂直長(xa)
*頭部重心位置(x1,y1)
*胴体重心位置(x2,y2,)
*全体重心位置(x3、Y3)
*垂直軸からの頭部の傾き(α度)
*垂直軸からの胴体の傾き(β度)
*垂直軸からの全体の傾き(δ度)
*垂直軸からの肩の傾き(γ度)
*ポリゴン頂点位置((px1、py1)、(px2、py2)・・・、(pxn、pyn))
これらのパラメータの比較処理を行なう例として説明したが、さらに、これらのパラメータの他に、このポリゴンの特徴情報を登録パラメータとして保持し、入力フレーム画像に基づいて、生成されるポリゴン(多角形)との比較を実行して類似性判定を実行する構成としてもよい。さらに、図11、図12を参照して説明した頭部や胴体の楕円情報をパラメータとして保持し、これらの楕円情報の比較によって類似判定を実行する構成としてもよい。
In the above-described embodiment, the posture classification processing unit 255 converts the posture corresponding to the input frame to one of the registered postures by the similarity determination process based on the comparison between the posture determination parameter corresponding to the input frame and the parameter of the registered posture information. A process for classifying information into information is executed, and the comparison parameters are the parameters shown in FIG.
* Head vertical length (xh)
* Vertical fuselage length (xt)
* Overall vertical length (xa)
* Head center of gravity (x1, y1)
* Body center of gravity (x2, y2,)
* Overall center of gravity (x3, Y3)
* Head tilt from the vertical axis (α degrees)
* Body tilt from the vertical axis (β degrees)
* Overall inclination from vertical axis (δ degrees)
* Inclination of shoulder from vertical axis (γ degree)
* Polygon vertex position ((px1, py1), (px2, py2) ..., (pxn, pyn))
Although an example of performing comparison processing of these parameters has been described, in addition to these parameters, the feature information of this polygon is held as a registration parameter, and a polygon (polygon) generated based on the input frame image is stored. It is good also as a structure which performs a comparison with and performs similarity determination. Furthermore, the configuration may be such that the ellipse information of the head and torso described with reference to FIGS. 11 and 12 is held as a parameter, and the similarity determination is executed by comparing these ellipse information.

本発明の情報処理装置によって得られる各種の解析情報は、例えば健康管理や、生産性管理に適用可能である。   Various types of analysis information obtained by the information processing apparatus of the present invention can be applied to, for example, health management and productivity management.

例えば健康管理情報として適用する場合の処理も例について説明する。先に、図16を参照して説明したように、姿勢解析情報生成部257は、姿勢解析情報としてユーザのある期間の姿勢の時間的分布を取得することができる。例えばあるユーザが腰痛や肩こりなどの症状を発生させた場合、図16に示す姿勢解析情報を医者に提示して自分の症状を説明することで、症状を改善するための良い姿勢についてのアドバイスを受けることができる。   For example, an example of processing when applied as health management information will be described. As described above with reference to FIG. 16, the posture analysis information generation unit 257 can acquire a temporal distribution of postures of a user during a certain period as posture analysis information. For example, when a user generates symptoms such as low back pain and stiff shoulders, the posture analysis information shown in FIG. 16 is presented to the doctor to explain his / her symptoms, thereby giving advice on a good posture to improve the symptoms. Can receive.

図5を参照して説明したように、ユーザは予め複数の姿勢を登録姿勢情報として登録し、この登録姿勢情報中に評価判定情報としてよい姿勢[Good]や悪い姿勢[Bad]等の評価判定情報を含めることができる。医者からアドバイスされた症状を改善するための良い姿勢を、登録姿勢情報中に良い姿勢[Good]として登録することで、この良い姿勢によって評価された姿勢の評価情報が、図13を参照して説明した姿勢インジケータ301によって示されることになり、ユーザは、インジケータ301によって示される情報に基づいて、医者の指定した良い姿勢を保持することが可能となる。   As described with reference to FIG. 5, the user registers a plurality of postures as registered posture information in advance, and evaluation determinations such as good posture [Good] and bad posture [Bad] as the evaluation determination information in the registered posture information. Information can be included. By registering a good posture for improving the symptoms advised by the doctor as a good posture [Good] in the registered posture information, posture evaluation information evaluated by this good posture is shown in FIG. It will be indicated by the described posture indicator 301, and the user can hold a good posture designated by the doctor based on the information indicated by the indicator 301.

また、生産性管理に適用する例について説明する。先に、図19を参照して説明したように、姿勢解析情報生成部257は、行動解析情報としてユーザのある期間の行動の時間的分布を取得することができる。また、前述したように、フィードバック姿勢解析情報生成部256は、一定の条件のアラーム条件に基づいて、例えばある同じ姿勢が継続して所定時間続いた場合などにアラーム出力を行なうことができる。   An example applied to productivity management will be described. As described earlier with reference to FIG. 19, the posture analysis information generation unit 257 can acquire the temporal distribution of the behavior of the user for a certain period as the behavior analysis information. Further, as described above, the feedback posture analysis information generating unit 256 can output an alarm when, for example, a certain same posture continues for a predetermined time based on a certain alarm condition.

このような構成を適用した生産性管理構成について説明する。例えば、ユーザがキーボード操作と判定される姿勢を1時間以上継続した場合、アラーム出力を行なう設定としたり、あるいは電話をしている時間が1時間以上続いた場合に、アラームを出力する設定とすることで、同じ作業が長時間、継続して行なわれていることをユーザに警告することが可能となる。このように、本発明の構成を適用することで、同一作業の継続による作業能率の低下を未然に防止させることが可能となる。   A productivity management configuration to which such a configuration is applied will be described. For example, if the user has determined that the keyboard operation is continued for one hour or longer, the alarm is set to be output, or the alarm is set to be output when the telephone call is continued for one hour or longer. Thus, it is possible to warn the user that the same work has been continuously performed for a long time. Thus, by applying the configuration of the present invention, it is possible to prevent a reduction in work efficiency due to the continuation of the same work.

またユーザの作業の評価に、行動解析情報を用いることもできる。例えば、営業を仕事としているユーザの行動を監視し、電話をかけている時間が長いほど、熱心な営業を行なっているとの評価尺度を適用する場合、姿勢解析情報生成部257の生成する行動解析情報に基づいて、ユーザの電話時間を判定することが可能であり、行動解析による行動評価、生産性管理が実現される。   Also, the behavior analysis information can be used for evaluating the user's work. For example, the behavior generated by the posture analysis information generation unit 257 is applied when monitoring the behavior of a user who is working as a sales person and applying an evaluation measure that the more eager the business is performed, the longer the phone call is made. Based on the analysis information, the user's telephone time can be determined, and behavior evaluation and productivity management by behavior analysis are realized.

最後に、図21を参照して、本発明の情報処理装置のハードウェア構成例について説明する。   Finally, with reference to FIG. 21, a hardware configuration example of the information processing apparatus of the present invention will be described.

CPU(Central Processing Unit)501は、OS(Operating System)、上述の実施例において説明した画像処理、姿勢判定処理、姿勢分類、評価処理、姿勢解析情報生成処理などの各処理の実行シーケンスを記述したコンピュータ・プログラムに従った処理を実行する制御部である。   A CPU (Central Processing Unit) 501 describes an execution sequence of each process such as an OS (Operating System), image processing, posture determination processing, posture classification, evaluation processing, posture analysis information generation processing described in the above-described embodiments. It is a control part which performs the process according to a computer program.

ROM(Read Only Memory)502は、CPU501が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)503は、CPU501の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバスなどから構成されるホストバス504により相互に接続されている。   A ROM (Read Only Memory) 502 stores programs used by the CPU 501, calculation parameters, and the like. A RAM (Random Access Memory) 503 stores programs used in the execution of the CPU 501, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 504 including a CPU bus.

ホストバス504は、ブリッジ505を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス506に接続されている。   The host bus 504 is connected to an external bus 506 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 505.

キーボード508、ポインティングデバイス509は、ユーザにより操作される入力デバイスである。ディスプレイ510は、液晶表示装置またはCRT(Cathode Ray Tube)などから成り、各種情報をテキストやイメージで表示する。   A keyboard 508 and a pointing device 509 are input devices operated by the user. The display 510 includes a liquid crystal display device, a CRT (Cathode Ray Tube), or the like, and displays various types of information as text and images.

HDD(Hard Disk Drive)511は、ハードディスクを内蔵し、ハードディスクを駆動し、CPU501によって実行するプログラムや情報を記録または再生させる。ハードディスクは、例えば、図5、図18を参照して説明した登録姿勢情報、アラーム条件設定情報などの各種設定情報の格納部としての役割、さらに各種のデータ処理プログラム等、各種コンピュータ・プログラムが格納領域として利用される。   An HDD (Hard Disk Drive) 511 includes a hard disk, drives the hard disk, and records or reproduces a program executed by the CPU 501 and information. The hard disk, for example, functions as a storage unit for various setting information such as registered attitude information and alarm condition setting information described with reference to FIGS. 5 and 18 and stores various computer programs such as various data processing programs. Used as an area.

ドライブ512は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体521に記録されているデータまたはプログラムを読み出して、そのデータまたはプログラムを、インタフェース507、外部バス506、ブリッジ505、およびホストバス504を介して接続されているRAM503に供給する。   The drive 512 reads data or a program recorded on a removable recording medium 521 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and the data or program is read out from the interface 507 and the external bus 506. , And supplied to the RAM 503 connected via the bridge 505 and the host bus 504.

接続ポート514は、外部接続機器522を接続するポートであり、USB,IEEE1394等の接続部を持つ。接続ポート514は、インタフェース507、および外部バス506、ブリッジ505、ホストバス504等を介してCPU501等に接続されている。通信部515は、ネットワークに接続され、CPU501、またはHDD511等からの供給データの送信、データ受信を実行する。カメラ531は、ユーザの画像情報を撮影し、マイク532は、音声データを取得して入力する。   The connection port 514 is a port for connecting the external connection device 522 and has a connection unit such as USB or IEEE1394. The connection port 514 is connected to the CPU 501 and the like via the interface 507, the external bus 506, the bridge 505, the host bus 504, and the like. A communication unit 515 is connected to a network and executes transmission of data supplied from the CPU 501 or the HDD 511 and data reception. The camera 531 captures user image information, and the microphone 532 acquires and inputs audio data.

なお、図21に示す情報処理装置のハードウェア構成例は、PCを適用して構成した装置の一例であり、本発明の情報処理装置は、図21に示す構成に限らず、上述した実施例において説明した処理を実行可能な構成であればよい。   Note that the hardware configuration example of the information processing apparatus illustrated in FIG. 21 is an example of an apparatus configured by applying a PC, and the information processing apparatus of the present invention is not limited to the configuration illustrated in FIG. Any configuration can be used as long as the processing described in the above item can be executed.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims section described at the beginning should be considered.

なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   The series of processes described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.

例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。   For example, the program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a recording medium. Alternatively, the program is temporarily or permanently stored on a removable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored (recorded). Such a removable recording medium can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The program is installed on the computer from the removable recording medium as described above, or is wirelessly transferred from the download site to the computer, or is wired to the computer via a network such as a LAN (Local Area Network) or the Internet. The computer can receive the program transferred in this manner and install it on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本発明の構成によれば、カメラの撮影画像フレームに含まれる人物画像に基づいて、フレーム対応姿勢判定パラメータを取得し、記憶部に格納された複数の登録姿勢に対応する登録パラメータとの比較を実行して、フレーム対応姿勢判定パラメータに類似する登録パラメータを持つ登録姿勢を、撮影画像フレームに含まれる人物の姿勢として分類し、分類された登録姿勢に基づいて解析情報を生成する構成とした。本構成により、姿勢解析処理効率が向上し、蓄積データ量の削減が実現される。さらに、姿勢の評価情報、姿勢とその時間的占有率情報を対応付けた情報、行動とその時間的占有率情報を対応付けた情報などを解析情報として取得、提供することが可能となる。提供情報は、例えば健康管理、生産性管理や業務管理に適用可能である。   As described above, according to the configuration of the present invention, the frame-corresponding posture determination parameter is acquired based on the person image included in the captured image frame of the camera, and a plurality of registered postures stored in the storage unit are supported. The registered posture having a registered parameter similar to the frame-corresponding posture determination parameter is classified as the posture of the person included in the captured image frame, and the analysis information is based on the classified registered posture. It was set as the structure which produces | generates. With this configuration, posture analysis processing efficiency is improved, and a reduction in the amount of accumulated data is realized. Furthermore, posture evaluation information, information that associates posture with its temporal occupancy information, information that associates behavior with its temporal occupancy information, and the like can be acquired and provided as analysis information. The provided information can be applied to, for example, health management, productivity management, and business management.

本発明の情報処理装置の処理の概要について説明する図である。It is a figure explaining the outline | summary of a process of the information processing apparatus of this invention. 本発明の情報処理装置の構成を説明する図である。It is a figure explaining the structure of the information processing apparatus of this invention. 本発明の情報処理装置の実行する全体処理シーケンスを説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the whole process sequence which the information processing apparatus of this invention performs. 本発明の情報処理装置において登録される登録姿勢情報の例について説明する図である。It is a figure explaining the example of the registration attitude | position information registered in the information processing apparatus of this invention. 本発明の情報処理装置において登録される登録姿勢情報の姿勢判定パラメータを含む登録情報のデータ例を示す図である。It is a figure which shows the data example of the registration information containing the attitude | position determination parameter of the registration attitude | position information registered in the information processing apparatus of this invention. 本発明の情報処理装置において登録される登録姿勢情報の姿勢判定パラメータについて説明する図である。It is a figure explaining the attitude | position determination parameter of the registration attitude | position information registered in the information processing apparatus of this invention. 本発明の情報処理装置の入力情報解析部の構成を説明するブロック図である。It is a block diagram explaining the structure of the input information analysis part of the information processing apparatus of this invention. 本発明の情報処理装置の入力情報解析部における姿勢判定処理部の実行する処理シーケンスを説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence which the attitude | position determination process part in the input information analysis part of the information processing apparatus of this invention performs. 本発明の情報処理装置の入力情報解析部における姿勢判定処理部の実行する処理の具体例について説明する図である。It is a figure explaining the specific example of the process which the attitude | position determination process part in the input information analysis part of the information processing apparatus of this invention performs. 本発明の情報処理装置の入力情報解析部における姿勢判定処理部の実行する処理の具体例について説明する図である。It is a figure explaining the specific example of the process which the attitude | position determination process part in the input information analysis part of the information processing apparatus of this invention performs. 本発明の情報処理装置の入力情報解析部における姿勢判定処理部の実行する処理の具体例について説明する図である。It is a figure explaining the specific example of the process which the attitude | position determination process part in the input information analysis part of the information processing apparatus of this invention performs. 本発明の情報処理装置の入力情報解析部における姿勢判定処理部の実行する処理の具体例について説明する図である。It is a figure explaining the specific example of the process which the attitude | position determination process part in the input information analysis part of the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する姿勢インジケータの表示例について説明する図である。It is a figure explaining the example of a display of the attitude | position indicator which the information processing apparatus of this invention performs. 本発明の情報処理装置の入力情報解析部における姿勢分類処理部およびフィードバック姿勢解析情報生成部の実行する処理シーケンスを説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the processing sequence which the attitude | position classification process part in the input information analysis part of the information processing apparatus of this invention and a feedback attitude | position analysis information generation part perform. 本発明の情報処理装置の実行する姿勢情報の表示例について説明する図である。It is a figure explaining the example of a display of the attitude | position information which the information processing apparatus of this invention performs. 本発明の情報処理装置の入力情報解析部における姿勢解析情報生成理部の生成する姿勢解析情報の具体例について説明する図である。It is a figure explaining the specific example of the attitude | position analysis information which the attitude | position analysis information generation part in the input information analysis part of the information processing apparatus of this invention produces | generates. 本発明の情報処理装置の入力情報解析部における姿勢解析情報生成理部の姿勢解析情報の生成処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the production | generation processing sequence of the attitude | position analysis information of the attitude | position analysis information generation part in the input information analysis part of the information processing apparatus of this invention. 本発明の情報処理装置において登録される登録姿勢情報の姿勢判定パラメータを含む登録情報のデータ例を示す図である。It is a figure which shows the data example of the registration information containing the attitude | position determination parameter of the registration attitude | position information registered in the information processing apparatus of this invention. 本発明の情報処理装置の入力情報解析部における姿勢解析情報生成理部の生成する行動解析情報の具体例について説明する図である。It is a figure explaining the specific example of the action analysis information which the attitude | position analysis information generation part in the input information analysis part of the information processing apparatus of this invention produces | generates. 本発明の情報処理装置の入力情報解析部における姿勢解析情報生成理部の行動解析情報の生成処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the production | generation processing sequence of the action analysis information of the attitude | position analysis information generation part in the input information analysis part of the information processing apparatus of this invention. 本発明の情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the information processing apparatus of this invention.

符号の説明Explanation of symbols

10 ユーザ
100 情報処理装置
101 カメラ
102 マイク
105 姿勢情報表示領域
201 入力手段
202 入力情報解析部
203 記憶部
204 出力手段
251 背景画像情報削除処理部
252 画像処理部
253 姿勢判定処理部
254 データ登録部
255 姿勢分類処理部
256 フィードバック姿勢解析情報生成部
257 姿勢解析情報生成部
258 情報出力部
301 姿勢インジケータ
302 スライダ
312 姿勢情報表示部
501 CPU(Central processing Unit)
502 ROM(Read-Only-Memory)
503 RAM(Random Access Memory)
504 ホストバス
505 ブリッジ
506 外部バス
507 インタフェース
508 キーボード
509 ポインティングデバイス
510 ディスプレイ
511 HDD(Hard Disk Drive)
512 ドライブ
514 接続ポート
515 通信部
521 リムーバブル記録媒体
522 外部接続機器
531 カメラ
532 マイク
DESCRIPTION OF SYMBOLS 10 User 100 Information processing apparatus 101 Camera 102 Microphone 105 Posture information display area 201 Input unit 202 Input information analysis unit 203 Storage unit 204 Output unit 251 Background image information deletion processing unit 252 Image processing unit 253 Posture determination processing unit 254 Data registration unit 255 Posture classification processing unit 256 Feedback posture analysis information generation unit 257 Posture analysis information generation unit 258 Information output unit 301 Posture indicator 302 Slider 312 Posture information display unit 501 CPU (Central processing Unit)
502 ROM (Read-Only-Memory)
503 RAM (Random Access Memory)
504 Host bus 505 Bridge 506 External bus 507 Interface 508 Keyboard 509 Pointing device 510 Display 511 HDD (Hard Disk Drive)
512 Drive 514 Connection port 515 Communication unit 521 Removable recording medium 522 Externally connected device 531 Camera 532 Microphone

Claims (20)

対象領域を撮影する撮影部と、
前記撮影部の撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理部と、
複数の登録姿勢に対応する姿勢判定情報を登録情報として記憶した記憶部と、
前記姿勢判定情報と、前記記憶部に格納された複数の登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理部と、
前記姿勢分類処理部において分類された登録姿勢に基づいて解析情報を生成する解析情報生成部と、
前記解析情報生成部の生成した解析情報を出力する情報出力部と、
を有することを特徴とする情報処理装置。
An imaging unit for imaging the target area;
A posture determination processing unit that acquires posture determination information based on a person image included in a photographed image of the photographing unit;
A storage unit storing posture determination information corresponding to a plurality of registered postures as registration information;
A posture that compares the posture determination information with a plurality of registration information stored in the storage unit, and classifies a registered posture having registration information similar to the posture determination information as a posture of a person included in the captured image. A classification processing unit;
An analysis information generating unit that generates analysis information based on the registered postures classified in the posture classification processing unit;
An information output unit for outputting the analysis information generated by the analysis information generation unit;
An information processing apparatus comprising:
前記記憶部は、
前記複数の登録姿勢に対応する登録情報として各登録姿勢の評価判定情報有し、
前記解析情報生成部は、
前記姿勢分類処理部において分類された登録姿勢に対応して設定された評価判定情報に基づいて、前記撮影画像に含まれる人物の姿勢についての評価情報を生成する構成であることを特徴とする請求項1に記載の情報処理装置。
The storage unit
As registration information corresponding to the plurality of registered postures, there is evaluation determination information for each registered posture,
The analysis information generation unit
The configuration is such that evaluation information about a posture of a person included in the photographed image is generated based on evaluation determination information set corresponding to the registered posture classified by the posture classification processing unit. Item 4. The information processing apparatus according to Item 1.
前記情報出力部は、
前記解析情報生成部の生成した評価情報について、インジケータ表示処理を実行する構成であることを特徴とする請求項2に記載の情報処理装置。
The information output unit includes:
The information processing apparatus according to claim 2, wherein an indicator display process is performed on the evaluation information generated by the analysis information generation unit.
前記情報出力部は、
前記撮影画像に含まれる人物の頭部および胴体の傾き情報を、人物画像に併せて表示する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
The information output unit includes:
The information processing apparatus according to claim 1, wherein the information processing apparatus is configured to execute a process of displaying tilt information of a person's head and torso included in the photographed image together with the person image.
前記情報出力部は、
前記姿勢判定処理部において、生成した姿勢の角度の基準を示す基準線と、姿勢の傾きを示す線とを姿勢を示す画像に重畳して表示する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
The information output unit includes:
The posture determination processing unit is configured to execute a process of superimposing and displaying a reference line indicating a generated posture angle reference and a line indicating a posture inclination on an image indicating the posture. The information processing apparatus according to claim 1.
前記解析情報生成部は、
予め定めた測定期間内における人物の姿勢解析情報を生成する構成であり、
前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理部が分類した各前記撮影画像に対応する分類登録姿勢に基づいて、登録姿勢と、前記測定期間内における該登録姿勢の時間的占有率情報を対応付けた情報を解析情報として生成する構成であることを特徴とする請求項1に記載の情報処理装置。
The analysis information generation unit
A configuration for generating posture analysis information of a person within a predetermined measurement period,
Based on the classification registration posture corresponding to each of the photographed images classified by the posture classification processing unit based on the photographed image acquired within the measurement period, the registered posture and the time of the registered posture within the measurement period The information processing apparatus according to claim 1, wherein the information that associates the general occupation rate information is generated as analysis information.
前記解析情報生成部は、
予め定めた測定期間内における人物の行動解析情報を生成する構成であり、
前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理部が分類した各撮影画像の分類登録姿勢に基づいて、該登録姿勢に対応付けられる行動態様と、前記測定期間内における該行動の時間的占有率を対応付けた情報を解析情報として生成する構成であることを特徴とする請求項1に記載の情報処理装置。
The analysis information generation unit
It is a configuration for generating human behavior analysis information within a predetermined measurement period,
Based on the classification registration posture of each photographed image classified by the posture classification processing unit based on the photographed image acquired within the measurement period, an action mode associated with the registration posture, and the behavior in the measurement period The information processing apparatus according to claim 1, wherein the information is associated with a temporal occupancy rate of an action and is generated as analysis information.
前記記憶部は、
複数の登録姿勢に対応する登録パラメータと、各登録姿勢に対応する行動情報を記録データとして有し、
前記解析情報生成部は、
前記測定期間内に取得されたフレーム画像に基づいて前記姿勢分類処理部が分類した各フレームの分類登録姿勢に基づいて、記憶部から登録姿勢対応の行動情報を取得し、取得した行動情報に基づいて、行動態様と前記測定期間内における該行動の時間的占有率情報を生成する構成であることを特徴とする請求項7に記載の情報処理装置。
The storage unit
It has registration parameters corresponding to multiple registered postures and action information corresponding to each registered posture as recorded data,
The analysis information generation unit
Based on the classification registration posture of each frame classified by the posture classification processing unit based on the frame image acquired within the measurement period, the behavior information corresponding to the registered posture is acquired from the storage unit, and based on the acquired behavior information The information processing apparatus according to claim 7, wherein the information processing apparatus is configured to generate a behavior mode and temporal occupancy information of the behavior within the measurement period.
前記姿勢判定処理部は、
前記撮影画像に含まれる人物画像の姿勢判定情報として、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を取得する構成であり、
前記姿勢分類処理部は、
前記姿勢判定情報と、前記記憶部に格納された複数の登録情報との比較を、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を適用して実行する構成であることを特徴とする請求項1に記載の情報処理装置。
The posture determination processing unit
Configuration for acquiring at least one of polygons set based on a person's outline or ellipse, centroid position, and angle associated with a constituent part of the person as posture determination information of the person image included in the captured image And
The posture classification processing unit
A comparison between the posture determination information and a plurality of registration information stored in the storage unit is a polygon set based on the outline of a person, or an ellipse associated with a constituent part of the person, a barycentric position, and an angle. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured to execute by applying any information.
前記姿勢判定処理部は、
前記撮影部の撮影する連続フレームから一部のフレームを選択し、該選択フレームの撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する構成であることを特徴とする請求項1に記載の情報処理装置。
The posture determination processing unit
2. The configuration according to claim 1, wherein a part of frames is selected from continuous frames photographed by the photographing unit, and posture determination information is acquired based on a person image included in a photographed image of the selected frame. The information processing apparatus described.
前記撮影部は、
前記情報出力部が情報を出力する表示画面に隣接して設けられ、撮影対象者の上半身を撮影範囲として設定した撮影を実行する構成であり、
前記姿勢判定処理部は、
前記撮影部の撮影画像に含まれる人物画像に基づいて、前記撮影対象者の頭部および胴体を分けて姿勢判定処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
The photographing unit
The information output unit is provided adjacent to a display screen for outputting information, and is configured to perform shooting with the upper body of the shooting target set as a shooting range,
The posture determination processing unit
The information processing apparatus according to claim 1, wherein the posture determination process is executed by dividing the head and the body of the person to be photographed based on a person image included in a photographed image of the photographing unit. .
前記姿勢判定処理部は、
前記撮影対象者の頭部および胴体の各々に対応する楕円と、該楕円の長軸および短軸を求め、各楕円における長軸の垂直軸に対する傾きに基づいて姿勢を判定する処理を実行する構成であることを特徴とする請求項11に記載の情報処理装置。
The posture determination processing unit
A configuration in which an ellipse corresponding to each of the head and torso of the subject to be photographed, a major axis and a minor axis of the ellipse, and a process of determining a posture based on an inclination of the major axis with respect to a vertical axis in each ellipse The information processing apparatus according to claim 11, wherein the information processing apparatus is an information processing apparatus.
前記情報処理装置は、さらに、
音声入力部を有し、
前記解析情報生成部は、
前記音声入力部から入力する音声情報に基づいて、解析情報を生成する構成であることを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus further includes:
Has a voice input unit,
The analysis information generation unit
The information processing apparatus according to claim 1, wherein the analysis information is generated based on voice information input from the voice input unit.
前記解析情報生成部は、
前記姿勢分類処理部において分類された登録姿勢に基づいて、健康管理情報または生産性管理情報を生成する処理を実行する構成であり、
前記情報出力部は、
前記解析情報生成部の生成した健康管理情報または生産性管理情報を出力する構成であることを特徴とする請求項1に記載の情報処理装置。
The analysis information generation unit
Based on the registered posture classified in the posture classification processing unit, it is configured to execute processing to generate health management information or productivity management information,
The information output unit includes:
The information processing apparatus according to claim 1, wherein the information processing apparatus is configured to output health management information or productivity management information generated by the analysis information generation unit.
対象領域を撮影する撮影ステップと、
前記撮影ステップにおいて撮影した撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理ステップと、
前記姿勢判定情報と、記憶部に格納された複数の登録姿勢に対応する姿勢判定情報としての登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理ステップと、
前記姿勢分類処理ステップにおいて分類された登録姿勢に基づいて解析情報を生成する解析情報生成ステップと、
前記解析情報生成ステップにおいて生成した解析情報を出力する情報出力ステップと、
を有することを特徴とする情報処理方法。
A shooting step for shooting the target area;
A posture determination processing step for acquiring posture determination information based on a person image included in the photographed image photographed in the photographing step;
The posture determination information is compared with registration information as posture determination information corresponding to a plurality of registered postures stored in the storage unit, and a registered posture having registration information similar to the posture determination information is added to the captured image. A posture classification processing step for classifying the posture of the included person,
An analysis information generating step for generating analysis information based on the registered posture classified in the posture classification processing step;
An information output step for outputting the analysis information generated in the analysis information generation step;
An information processing method characterized by comprising:
前記解析情報生成ステップは、
前記姿勢分類処理ステップにおいて分類された登録姿勢に対応して設定された評価判定情報に基づいて、前記撮影画像に含まれる人物の姿勢についての評価情報を生成するステップであることを特徴とする請求項15に記載の情報処理方法。
The analysis information generation step includes
The step of generating evaluation information about the posture of a person included in the photographed image based on the evaluation determination information set corresponding to the registered posture classified in the posture classification processing step. Item 16. The information processing method according to Item 15.
前記解析情報生成ステップは、
予め定めた測定期間内における人物の姿勢解析情報を生成するステップであり、
前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理ステップにおいて分類された各撮影画像の分類登録姿勢に基づいて、登録姿勢と、前記測定期間内における該登録姿勢の時間的占有率情報を対応付けた情報を解析情報として生成することを特徴とする請求項15に記載の情報処理方法。
The analysis information generation step includes
A step of generating posture analysis information of a person within a predetermined measurement period,
Based on the registered registration of each captured image classified in the orientation classification processing step based on the captured image acquired within the measurement period, the registered attitude and the temporal occupation of the registered attitude within the measurement period The information processing method according to claim 15, wherein information associated with rate information is generated as analysis information.
前記解析情報生成ステップは、
予め定めた測定期間内における人物の行動解析情報を生成するステップであり、
前記測定期間内に取得された前記撮影画像に基づいて前記姿勢分類処理ステップにおいて分類された各撮影画像の分類登録姿勢に基づいて、該登録姿勢に対応付けられる行動態様と、前記測定期間内における該行動の時間的占有率を対応付けた情報を解析情報として生成することを特徴とする請求項15に記載の情報処理方法。
The analysis information generation step includes
A step of generating human behavior analysis information within a predetermined measurement period,
Based on the classification registration posture of each photographed image classified in the posture classification processing step based on the photographed image acquired within the measurement period, an action mode associated with the registered posture, The information processing method according to claim 15, wherein information associated with the temporal occupancy rate of the action is generated as analysis information.
前記姿勢判定処理ステップは、
前記撮影画像に含まれる人物画像の姿勢判定情報として、人物画像の姿勢判定パラメータとして、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を取得するステップであり、
前記姿勢分類処理ステップは、
前記姿勢判定情報と、前記記憶部に格納された複数の登録情報との比較を、人物の輪郭に基づいて設定されるポリゴン、または人物の構成部位に対応付けられる楕円、重心位置、角度の少なくともいずれかの情報を適用して実行するステップであることを特徴とする請求項15に記載の情報処理方法。
The posture determination processing step includes:
As the posture determination information of the human image included in the photographed image, as the posture determination parameter of the human image, at least the polygon set based on the contour of the person, or the ellipse associated with the constituent part of the person, the barycentric position, and the angle It is a step to acquire any information,
The posture classification processing step includes:
A comparison between the posture determination information and a plurality of registration information stored in the storage unit is a polygon set based on the outline of a person, or an ellipse associated with a constituent part of the person, a barycentric position, and an angle. The information processing method according to claim 15, wherein the information processing method is a step executed by applying any of the information.
姿勢解析処理を情報処理装置において実行させるコンピュータ・プログラムであり、
対象領域を撮影する撮影ステップと、
前記撮影ステップにおいて撮影した撮影画像に含まれる人物画像に基づいて、姿勢判定情報を取得する姿勢判定処理ステップと、
前記姿勢判定情報と、記憶部に格納された複数の登録姿勢に対応する姿勢判定情報としての登録情報とを比較し、前記姿勢判定情報に類似する登録情報を持つ登録姿勢を、前記撮影画像に含まれる人物の姿勢として分類する姿勢分類処理ステップと、
前記姿勢分類処理ステップにおいて分類された登録姿勢に基づいて解析情報を生成する解析情報生成ステップと、
前記解析情報生成ステップにおいて生成した解析情報を出力する情報出力ステップと、
を有することを特徴とするコンピュータ・プログラム。
A computer program that causes an information processing apparatus to execute posture analysis processing;
A shooting step for shooting the target area;
A posture determination processing step for acquiring posture determination information based on a person image included in the photographed image photographed in the photographing step;
The posture determination information is compared with registration information as posture determination information corresponding to a plurality of registered postures stored in the storage unit, and a registered posture having registration information similar to the posture determination information is added to the captured image. A posture classification processing step for classifying the posture of the included person,
An analysis information generating step for generating analysis information based on the registered posture classified in the posture classification processing step;
An information output step for outputting the analysis information generated in the analysis information generation step;
A computer program characterized by comprising:
JP2005234883A 2005-08-12 2005-08-12 Information processing device, information processing method, and computer program Pending JP2007048232A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005234883A JP2007048232A (en) 2005-08-12 2005-08-12 Information processing device, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005234883A JP2007048232A (en) 2005-08-12 2005-08-12 Information processing device, information processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2007048232A true JP2007048232A (en) 2007-02-22

Family

ID=37850984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005234883A Pending JP2007048232A (en) 2005-08-12 2005-08-12 Information processing device, information processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2007048232A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010540970A (en) * 2007-10-05 2010-12-24 アーテック・グループ・インコーポレーテッド Integrated object capturing system, display device, and related method
JP2012023566A (en) * 2010-07-14 2012-02-02 Toshiba Teli Corp Monitoring system, and behavior monitoring program
JP2016178531A (en) * 2015-03-20 2016-10-06 大日本印刷株式会社 Printed matter manufacturing apparatus
US9798958B2 (en) 2013-12-02 2017-10-24 Fujitsu Limited Biometric information registration device and method
US10503969B2 (en) 2016-03-25 2019-12-10 Fuji Xerox Co., Ltd. Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010540970A (en) * 2007-10-05 2010-12-24 アーテック・グループ・インコーポレーテッド Integrated object capturing system, display device, and related method
JP2012023566A (en) * 2010-07-14 2012-02-02 Toshiba Teli Corp Monitoring system, and behavior monitoring program
US9798958B2 (en) 2013-12-02 2017-10-24 Fujitsu Limited Biometric information registration device and method
JP2016178531A (en) * 2015-03-20 2016-10-06 大日本印刷株式会社 Printed matter manufacturing apparatus
US10503969B2 (en) 2016-03-25 2019-12-10 Fuji Xerox Co., Ltd. Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method

Similar Documents

Publication Publication Date Title
JP6159179B2 (en) Image processing apparatus and image processing method
US20100124357A1 (en) System and method for model based people counting
JP6590609B2 (en) Image analysis apparatus and image analysis method
JP2007164720A (en) Head detecting device, head detecting method, and head detecting program
JP2008199549A (en) Monitor image processing method, monitoring system, and monitor image processing program
JP6841608B2 (en) Behavior detection system
KR20180020123A (en) Asynchronous signal processing method
US20210081716A1 (en) Training system and analysis system
RU2713876C1 (en) Method and system for detecting alarm events when interacting with self-service device
JP2007034525A (en) Information processor, information processing method and computer program
JP2007048232A (en) Information processing device, information processing method, and computer program
JP6593949B1 (en) Information processing apparatus and marketing activity support apparatus
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP2002366958A (en) Method and device for recognizing image
US20220189200A1 (en) Information processing system and information processing method
JP4449483B2 (en) Image analysis apparatus, image analysis method, and computer program
JP2020095651A (en) Productivity evaluation system, productivity evaluation device, productivity evaluation method, and program
JP7484569B2 (en) Image processing device, image processing method, and program
JP2008059108A (en) Image processing apparatus, image processing method, its program, and flow of people monitoring system
JP6467994B2 (en) Image processing program, image processing apparatus, and image processing method
JP2023543627A (en) Systems and methods for counting, locating and visualizing acne
US20200160047A1 (en) Work skill supporting device and work skill supporting system
JP7152651B2 (en) Program, information processing device, and information processing method
JP2020166653A (en) Information processing device, information processing method, and program
JP7376446B2 (en) Work analysis program and work analysis device