JP4134147B2 - Operation instruction device - Google Patents

Operation instruction device Download PDF

Info

Publication number
JP4134147B2
JP4134147B2 JP2005320767A JP2005320767A JP4134147B2 JP 4134147 B2 JP4134147 B2 JP 4134147B2 JP 2005320767 A JP2005320767 A JP 2005320767A JP 2005320767 A JP2005320767 A JP 2005320767A JP 4134147 B2 JP4134147 B2 JP 4134147B2
Authority
JP
Japan
Prior art keywords
user
dimensional position
posture
distribution
spot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005320767A
Other languages
Japanese (ja)
Other versions
JP2007128307A (en
Inventor
章 内海
大輔 神原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005320767A priority Critical patent/JP4134147B2/en
Publication of JP2007128307A publication Critical patent/JP2007128307A/en
Application granted granted Critical
Publication of JP4134147B2 publication Critical patent/JP4134147B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザの動作を検出してユーザが次に行うべき動作を指示する動作指示装置に関するものである。   The present invention relates to an operation instruction device that detects an operation of a user and instructs an operation to be performed next by the user.

高次脳機能障害や痴呆症を持つ被介護者のコミュニケーションを活性化し、介護者である家族を支援するためのインターフェースが研究されており、例えば、非特許文献1には、ネットワークを利用した情報セラピーインターフェースが開示されている。このような情報セラピーインターフェースは、ユーザである被介護者の状態及び意図に応じた情報提供を行い、ネットワークを介した被介護者と介護者とのコミュニケーションの場を提供することにより、介護者の負担を軽減するシステムである。   Interfaces for activating communication of care recipients with higher brain dysfunction and dementia and supporting family members who are caregivers have been studied. For example, Non-Patent Document 1 discloses information using a network. A therapy interface is disclosed. Such an information therapy interface provides information according to the condition and intention of the care recipient who is the user, and provides a place for communication between the care recipient and the caregiver via the network. It is a system that reduces the burden.

上記のようなシステムでは、室内で自由に行動する被介護者の行動パターンを抽出して被介護者の状態及び意図を推定する必要があり、人の動き、特に姿勢を高精度に検出する必要がある。人の姿勢を検出する方法として、人を含む画像を撮影して画像処理により人の姿勢を検出する受動的な観測方法がある。この受動的な観測方法では、非装着及び非接触の検出方法である画像処理を用いることができるため、被介護者の負担を軽減することができる。
鉄谷信二他、「ネットワークを利用した情報セラピーインターフェース」、信学技報、2003年、No.103−747、p.31−p.36
In the system as described above, it is necessary to extract the behavior pattern of the cared person who freely moves in the room to estimate the state and intention of the cared person, and it is necessary to detect the movement of the person, particularly the posture, with high accuracy. There is. As a method for detecting the posture of a person, there is a passive observation method in which an image including a person is captured and the posture of the person is detected by image processing. Since this passive observation method can use image processing that is a non-wearing and non-contact detection method, the burden on the care recipient can be reduced.
Shinji Tetsuya et al., “Information therapy interface using network”, IEICE Tech. 103-747, p. 31-p. 36

しかしながら、上記のような受動的な観測方法では、被介護者の服装、室内の照明条件等の環境条件の変化、及び人同士のオクルージョン等のシーンに依存した要因により、検出処理が不安定となって人の姿勢を正確に推定することができない場合があり、結果として被介護者の動作を正確に推定することができず、動作を支援するための的確な指示を与えることができない。また、被介護者を特定可能な画像を用いて被介護者の姿勢を検出する場合、被介護者のプライバシーを確保することができない。   However, in the passive observation method as described above, detection processing is unstable due to factors depending on the scene such as clothes of the cared person, changes in environmental conditions such as indoor lighting conditions, and occlusion between people. In some cases, the posture of the person cannot be accurately estimated. As a result, the movement of the care recipient cannot be accurately estimated, and an accurate instruction for supporting the movement cannot be given. In addition, when the posture of the cared person is detected using an image that can identify the cared person, the care receiver's privacy cannot be ensured.

一方、被介護者の身体にセンサ又はマーカーを装着する能動的な観測方法では、高精度な姿勢の検出が可能となるが、このようなものを装着して日常生活を送ることは、被介護者の負担が過大となる。   On the other hand, the active observation method in which a sensor or marker is attached to the cared person's body makes it possible to detect the posture with high accuracy. The burden on the person becomes excessive.

本発明の目的は、ユーザのプライバシーを確保しながら、ユーザの負担を軽減することができるとともに、ユーザに的確な指示を与えることができる動作指示装置を提供することである。   The objective of this invention is providing the operation | movement instruction | indication apparatus which can give an exact instruction | indication to a user while being able to reduce a user's burden, ensuring a user's privacy.

本発明に係る動作指示装置は、ユーザの3次元形状をユーザに対して非接触で検出する検出手段と、前記検出手段により検出されたユーザの3次元形状を基にユーザの動作を推定する推定手段と、前記推定手段により推定されたユーザの動作を基にユーザが次に行うべき動作に関する指示をユーザに提示する提示手段とを備え、前記検出手段は、ユーザに対して複数のスポット光を所定パターンで投影する投影手段と、前記投影手段によりユーザの表面に投影された複数の光点を撮影する撮影手段と、前記ユーザの3次元形状として、前記撮影手段により撮影された複数の光点の位置を基にユーザの表面の3次元位置分布を検出する位置検出手段とを含み、前記投影手段は、複数のスポット光を撮影画像上で互いに干渉しないスポット光群に分割する分割手段と、前記分割手段により分割されたスポット光群毎にスポット光をユーザに対して投影する分割投影手段とを含み、前記撮影手段は、前記分割投影手段によりスポット光群毎にユーザの表面に投影された複数の光点を撮影し、前記位置検出手段は、前記撮影手段によりスポット光群毎に撮影された光点の位置を基にユーザの表面の3次元位置分布を検出するものである。 The motion instruction apparatus according to the present invention includes a detection unit that detects a user's three-dimensional shape in a non-contact manner with respect to the user, and an estimation that estimates a user's motion based on the user's three-dimensional shape detected by the detection unit. And a presenting means for presenting to the user an instruction related to an action to be performed next based on the user's action estimated by the estimating means, and the detecting means emits a plurality of spot lights to the user. Projecting means for projecting in a predetermined pattern, photographing means for photographing a plurality of light spots projected on the surface of the user by the projecting means, and a plurality of light spots photographed by the photographing means as the three-dimensional shape of the user Position detecting means for detecting a three-dimensional position distribution on the surface of the user based on the position of the projection, the projection means into a spot light group that does not interfere with each other on the captured image. Splitting means for splitting, and splitting projection means for projecting spot light to the user for each spot light group divided by the splitting means, wherein the photographing means is provided for each spot light group by the split projection means. A plurality of light spots projected on the surface of the user are photographed, and the position detecting means detects a three-dimensional position distribution on the surface of the user based on the positions of the light spots photographed for each spot light group by the photographing means. Is.

本発明に係る動作指示装置においては、ユーザの3次元形状がユーザに対して非接触で検出され、検出されたユーザの3次元形状を基にユーザの動作が推定され、推定されたユーザの動作を基にユーザが次に行うべき動作に関する指示がユーザに提示されるので、ユーザを特定可能な画像等を用いことなく、また、ユーザに対して観測機器を非装着及び非接触の状態でユーザの動作を推定して当該動作に適した指示を行うことができ、ユーザのプライバシーを確保しながら、ユーザの負担を軽減することができるとともに、ユーザに的確な指示を与えることができる。
また、ユーザに対して複数のスポット光が所定パターンで投影され、ユーザの表面に投影された複数の光点が撮影され、撮影された複数の光点の位置を基にユーザの表面の3次元位置分布が検出されるので、ユーザに対して観測機器を非装着及び非接触の状態で、ユーザの表面の3次元位置分布を高精度に検出することができる。また、複数のスポット光を照射して各光点の位置を能動的に観測しているので、シーンに依存した要因に過度に影響されることなく、ユーザの動作を安定的に推定することができる。
また、複数のスポット光が撮影画像上で互いに干渉しないスポット光群に分割され、分割されたスポット光群毎にスポット光がユーザに対して投影され、スポット光群毎にユーザの表面に投影された複数の光点が撮影され、スポット光群毎に撮影された光点の位置を基にユーザの表面の3次元位置分布を検出しているので、ユーザの表面の3次元位置分布を高速かつ効率的に検出することができる。
In the motion instruction device according to the present invention, the user's three-dimensional shape is detected in a non-contact manner with respect to the user, the user's motion is estimated based on the detected user's three-dimensional shape, and the estimated user's motion since instructions regarding operation which a user should do next based on is presented to the user, without Ru with identifiable images like the user, also in a state of non-attachment and non-contact observation instrument for the user The user's motion can be estimated and an instruction suitable for the motion can be given, the user's burden can be reduced while ensuring the user's privacy, and an accurate instruction can be given to the user.
In addition, a plurality of spot lights are projected on the user in a predetermined pattern, a plurality of light spots projected on the user's surface are photographed, and the three-dimensional surface of the user is based on the positions of the photographed light spots. Since the position distribution is detected, it is possible to detect the three-dimensional position distribution on the surface of the user with high accuracy in a state where the observation apparatus is not attached to the user and in a non-contact state. Moreover, since the position of each light spot is actively observed by irradiating a plurality of spot lights, it is possible to stably estimate the user's operation without being excessively influenced by factors depending on the scene. it can.
Further, a plurality of spot lights are divided into spot light groups that do not interfere with each other on the captured image, and the spot lights are projected to the user for each of the divided spot light groups, and each spot light group is projected onto the user's surface. Since a plurality of light spots are photographed and the three-dimensional position distribution of the user's surface is detected based on the positions of the light spots photographed for each spot light group, the three-dimensional position distribution of the user's surface can be obtained at high speed. It can be detected efficiently.

前記推定手段は、ユーザの姿勢毎にユーザの表面の基準3次元位置分布を予め記憶している分布記憶手段と、前記位置検出手段により検出された3次元位置分布と前記分布記憶手段に記憶されている基準3次元位置分布とを比較してユーザの現在の姿勢を推定する姿勢推定手段と、ユーザの動作毎に当該動作を構成するユーザの姿勢を表す姿勢情報を予め記憶している動作記憶手段と、前記姿勢推定手段により推定されたユーザの姿勢と前記動作記憶手段に記憶されている姿勢情報とを比較してユーザの現在の動作を推定する動作推定手段とを含むことが好ましい。   The estimation means is stored in a distribution storage means that stores in advance a reference three-dimensional position distribution of the user's surface for each user posture, a three-dimensional position distribution detected by the position detection means, and the distribution storage means. A posture estimation means for estimating the current posture of the user by comparing with a reference three-dimensional position distribution, and a motion memory that stores in advance posture information representing the posture of the user constituting the motion for each motion of the user It is preferable to include means for estimating the current motion of the user by comparing the posture of the user estimated by the posture estimation device and the posture information stored in the motion storage device.

この場合、ユーザの姿勢毎に予め記憶されている基準3次元位置分布と比較してユーザの現在の姿勢を推定し、ユーザの動作毎に予め記憶されている姿勢情報と比較してユーザの現在の動作を推定しているので、ユーザの動作を高精度に推定することができる。   In this case, the current posture of the user is estimated by comparing with a reference three-dimensional position distribution stored in advance for each posture of the user, and compared with the posture information stored in advance for each operation of the user. Therefore, the user's motion can be estimated with high accuracy.

前記分布記憶手段は、さらに、ユーザが使用する器具毎に当該器具の使用時の基準3次元位置分布を予め記憶し、前記姿勢推定手段は、さらに、前記位置検出手段により検出された器具の3次元位置分布と前記分布記憶手段に記憶されている器具の基準3次元位置分布とを比較して器具の使用状態を推定し、前記動作記憶手段は、さらに、ユーザの動作毎に当該動作と関連する器具の使用状態を表す使用状態情報を予め記憶し、前記動作推定手段は、前記姿勢推定手段により推定されたユーザの姿勢及び器具の使用状態と前記動作記憶手段に記憶されている姿勢情報及び使用状態情報とを比較してユーザの現在の動作を推定することが好ましい。   The distribution storage means further stores in advance a reference three-dimensional position distribution at the time of use of the appliance for each appliance used by the user, and the posture estimation means further stores 3 of the appliances detected by the position detection means. The use state of the appliance is estimated by comparing the three-dimensional position distribution with the reference three-dimensional position distribution of the appliance stored in the distribution storage means, and the action storage means further relates to the action for each user action. Use state information indicating the use state of the appliance to be stored in advance, and the motion estimation means includes the posture of the user estimated by the posture estimation means and the use state of the appliance, and the posture information stored in the motion storage means, and It is preferable to compare the usage state information to estimate the current operation of the user.

この場合、ユーザが使用する器具毎に予め記憶されている器具の基準3次元位置分布と比較して器具の使用状態をも推定し、ユーザの動作毎に予め記憶されている姿勢情報及び使用状態情報と比較してユーザの現在の動作を推定しているので、ユーザの動作をより高精度に推定することができる。   In this case, the usage state of the appliance is also estimated in comparison with the reference three-dimensional position distribution of the appliance stored in advance for each appliance used by the user, and the posture information and the usage status stored in advance for each user operation Since the user's current motion is estimated compared with the information, the user's motion can be estimated with higher accuracy.

前記位置検出手段は、検出した3次元位置分布を基にユーザの観測位置を検出し、前記投影手段は、前記位置検出手段により検出されたユーザの観測位置に応じてスポット光の位置を補正することが好ましい。   The position detection unit detects a user's observation position based on the detected three-dimensional position distribution, and the projection unit corrects the position of the spot light according to the user's observation position detected by the position detection unit. It is preferable.

この場合、3次元位置分布を基にユーザの観測位置が検出され、検出されたユーザの観測位置に応じてスポット光の位置が補正されるので、3次元位置分布を高精度に検出することができ、この3次元位置分布と基準3次元位置分布とを比較してユーザの動作を推定しているので、ユーザが移動しても、ユーザの動作を高精度に推定することができる。   In this case, the observation position of the user is detected based on the three-dimensional position distribution, and the position of the spot light is corrected according to the detected observation position of the user, so that the three-dimensional position distribution can be detected with high accuracy. Since the user's motion is estimated by comparing the three-dimensional position distribution with the reference three-dimensional position distribution, the user's motion can be estimated with high accuracy even when the user moves.

前記撮影手段は、前記投影手段によりユーザの表面に投影された複数の光点を互いに異なる撮影方向から撮影する第1及び第2の撮影手段を含み、前記位置検出手段は、前記第1及び第2の撮影手段により撮影された複数の光点の位置を基にユーザの異なる表面の3次元位置分布を検出し、上記動作指示装置は、前記位置検出手段により検出されたユーザの異なる表面の3次元位置分布を保持する保持手段と、前記位置検出手段により検出されたユーザの異なる表面の3次元位置分布と前記保持手段に保持されている所定時間前のユーザの異なる表面の3次元位置分布とを比較してユーザの表面に変化が生じた部位を検出する部位検出手段と、ユーザが装着する衣服毎に当該衣服の着脱によりユーザの表面に変化が生じる部位を予め記憶している衣服記憶手段と、前記部位検出手段により検出された部位と前記衣服記憶手段に記憶されている部位とを比較して変化が生じた衣服の種類を識別する識別手段とをさらに備え、前記動作推定手段は、前記識別手段により識別された衣服の種類をも考慮してユーザの着替え動作を推定することが好ましい。   The photographing means includes first and second photographing means for photographing a plurality of light spots projected on the surface of the user by the projecting means from different photographing directions, and the position detecting means includes the first and first photographing means. The three-dimensional position distribution of different surfaces of the user is detected on the basis of the positions of the plurality of light spots photographed by the two photographing means, and the motion instruction device detects the three different surfaces of the user detected by the position detecting means. A holding means for holding a three-dimensional position distribution; a three-dimensional position distribution of different surfaces of the user detected by the position detecting means; and a three-dimensional position distribution of different surfaces of the user held by the holding means a predetermined time ago. A part detecting means for detecting a part where the surface of the user has changed and a part where the surface of the user is changed by attaching / detaching the clothes for each piece of clothing worn by the user And further comprising an identification means for identifying the type of clothing that has changed by comparing the part detected by the part detection means with the part stored in the clothes storage means. It is preferable that the estimation means estimates the user's change of clothes operation in consideration of the type of clothes identified by the identification means.

この場合、第1及び第2の撮影手段により撮影された複数の光点の位置を基にユーザの異なる表面の3次元位置分布が検出され、検出されたユーザの異なる表面の3次元位置分布と所定時間前のユーザの異なる表面の3次元位置分布とを比較して変化が生じた部位が検出され、検出された部位とユーザが装着する衣服毎に予め記録されている当該衣服の着脱により変化が生じる部位とを比較して変化が生じた衣服の種類を識別し、識別された衣服の種類をも考慮してユーザの着替え動作を推定しているので、ユーザの着替え動作を衣服の種類を含めて高精度に推定することができる。   In this case, the three-dimensional position distribution of different surfaces of the user is detected based on the positions of the plurality of light spots photographed by the first and second photographing means, and the detected three-dimensional position distribution of the different surfaces of the user and A part where a change has occurred is detected by comparing the three-dimensional position distributions of different surfaces of the user a predetermined time ago, and the detected part is changed by attaching and detaching the clothes recorded in advance for each piece of clothes worn by the user. Since the user's dressing motion is estimated in consideration of the identified clothing type, the user's dressing motion is And can be estimated with high accuracy.

前記投影手段は、赤外光を用いてユーザに対して複数のスポット光を所定パターンで投影し、前記撮影手段は、前記投影手段によりユーザの表面に投影された複数の赤外光点を撮影することが好ましい。   The projection unit projects a plurality of spot lights to the user in a predetermined pattern using infrared light, and the photographing unit photographs a plurality of infrared light spots projected on the surface of the user by the projection unit. It is preferable to do.

この場合、ユーザに見えない赤外光を用いてユーザの表面の3次元位置分布を検出しているので、照明条件等の環境変化に対してロバストな検出を行うことができるとともに、ユーザのプライバシーを確保することができる。   In this case, since the three-dimensional position distribution on the surface of the user is detected using infrared light that is not visible to the user, it is possible to perform robust detection against environmental changes such as illumination conditions, and user privacy. Can be secured.

本発明によれば、ユーザを特定可能な画像等を用いことなく、また、ユーザに対して観測機器を非装着及び非接触の状態でユーザの動作を推定して当該動作に適した指示を行うことができ、ユーザのプライバシーを確保しながら、ユーザの負担を軽減することができるとともに、ユーザに的確な指示を与えることができる。   According to the present invention, the user's operation is estimated without using an image or the like that can identify the user, and the observation device is not attached or in a non-contact state, and an instruction suitable for the operation is given. It is possible to reduce the burden on the user while ensuring the privacy of the user, and to give an accurate instruction to the user.

以下、本発明の一実施の形態による動作指示装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による動作指示装置の構成を示すブロック図である。   Hereinafter, an operation instruction apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an operation instruction apparatus according to an embodiment of the present invention.

図1に示す動作指示装置は、プロジェクタ11、投影パターン分割部12、投影パターン生成部13、2台のビデオカメラ21a,21b、3次元位置検出部22、3次元位置復元部23、姿勢推定部24、分布データベース25、前回位置保持部26、変化部位検出部27、服装変化識別部28、服装変化部位データベース29、動作推定部30、動作データベース31、音声出力及び映像表示部32及び動作指示情報データベース33を備える。   1 includes a projector 11, a projection pattern dividing unit 12, a projection pattern generating unit 13, two video cameras 21a and 21b, a three-dimensional position detecting unit 22, a three-dimensional position restoring unit 23, and an attitude estimating unit. 24, distribution database 25, previous position holding unit 26, change part detection unit 27, clothes change identification unit 28, clothes change part database 29, motion estimation unit 30, motion database 31, audio output and video display unit 32, and motion instruction information A database 33 is provided.

プロジェクタ11は、例えば、DLP(デジタル・ライト・プロセッシング)プロジェクタ(解像度800×600画素)から構成され、そのレンズユニットに赤外線フィルタが取り付けられ、赤外光を用いてユーザ(例えば、被介護者)及びユーザが使用する器具(例えば、便器)に対して複数のスポット赤外光を所定パターンで投影する。ビデオカメラ21a,21bは、例えば、CCDカメラから構成され、そのレンズユニットに赤外線フィルタが取り付けられ、ユーザの表面及びユーザが使用する器具の表面に投影された複数の赤外光点を撮影する。   The projector 11 is composed of, for example, a DLP (digital light processing) projector (resolution 800 × 600 pixels), an infrared filter is attached to the lens unit, and a user (for example, a cared person) using infrared light. In addition, a plurality of spot infrared lights are projected in a predetermined pattern onto an instrument used by the user (for example, a toilet bowl). The video cameras 21a and 21b are composed of, for example, a CCD camera, an infrared filter is attached to the lens unit, and a plurality of infrared light spots projected on the surface of the user and the surface of the instrument used by the user are photographed.

図2は、図1に示すプロジェクタ11とビデオカメラ21a,21bとの位置関係を説明するための模式図である。図2に示すように、部屋の上方、例えば、天井の真中又は一方側に設置されたプロジェクタ11は、ユーザ及びユーザが使用する器具に対して複数のスポット赤外光を所定パターンで投影し、部屋の上方、例えば、天井の一方側に設置されたビデオカメラ21aは、ユーザの表面(具体的には、身体又は衣服の表面)及びユーザが使用する器具の表面に投影された複数の赤外光点を撮影する。また、ビデオカメラ21bは、ビデオカメラ21aの反対側に取り付けられ、ユーザ及びユーザが使用する器具の表面に投影された複数の赤外光点をビデオカメラ21aの撮影方向と異なる撮影方向から撮影する。このようにして、ビデオカメラ21a,21bによりユーザ及びユーザが使用する器具の表面(前面)及び裏面(背面)に投影された複数の赤外光点を撮影することができる。   FIG. 2 is a schematic diagram for explaining the positional relationship between the projector 11 and the video cameras 21a and 21b shown in FIG. As shown in FIG. 2, the projector 11 installed above the room, for example, in the middle or one side of the ceiling, projects a plurality of spot infrared lights in a predetermined pattern on the user and the appliance used by the user, The video camera 21a installed above the room, for example, on one side of the ceiling, has a plurality of infrared rays projected onto the surface of the user (specifically, the surface of the body or clothes) and the surface of the appliance used by the user. Take a light spot. The video camera 21b is attached to the opposite side of the video camera 21a and shoots a plurality of infrared light spots projected on the surface of the user and the equipment used by the user from a shooting direction different from the shooting direction of the video camera 21a. . In this way, a plurality of infrared light spots projected on the front surface (front surface) and the back surface (rear surface) of the user and the appliance used by the user can be photographed by the video cameras 21a and 21b.

図3及び図4は、図1に示すプロジェクタ11及びビデオカメラ21aの設置例を示す図である。なお、図3及び図4では、簡略化のためにビデオカメラ21aのみを図示している。図3に示す例では、トイレにプロジェクタ11及びビデオカメラ21aが設置され、この場合、ユーザのトイレ使用時の動作を観測してトイレの使用動作に関する指示をユーザに教示することができる。また、図4に示す例では、洋服ダンスが配置された部屋にプロジェクタ11及びビデオカメラ21aが設置され、この場合、ユーザの着替え動作を観測して着替え動作に関する指示をユーザに教示することができる。   3 and 4 are diagrams showing an installation example of the projector 11 and the video camera 21a shown in FIG. 3 and 4, only the video camera 21a is illustrated for the sake of simplicity. In the example shown in FIG. 3, the projector 11 and the video camera 21a are installed in the toilet. In this case, the user's operation when using the toilet can be observed and an instruction regarding the operation of using the toilet can be taught to the user. In the example shown in FIG. 4, the projector 11 and the video camera 21 a are installed in a room where clothes dance is arranged. In this case, the user's change operation can be observed and an instruction regarding the change operation can be taught to the user. .

なお、本実施の形態では、一つの部屋に1台のプロジェクタ11及び2台のビデオカメラ21a,21bが設置されている例について説明するが、プロジェクタ及びビデオカメラの台数は、この例に特に限定されず、種々の変更が可能である。例えば、廊下、寝室、リビングルーム、キッチン、洗面室及びバスルーム等の部屋毎にユーザの動作の推定及び服装変化の識別を行う場合は、部屋毎に少なくとも1台のプロジェクタ及び少なくとも1台のビデオカメラが設置され、また、1台のビデオカメラのみを用いてユーザの動作のみを推定してもよい。さらに、より広範囲の観測を要する場合には複数のプロジェクタ及び複数のビデオカメラが設置されてもよい。特に、服装変化の検出を行う場合にはユーザの全周の3次元位置を得るため複数のプロジェクタ及びビデオカメラを組み合わせることが望ましい。   In this embodiment, an example in which one projector 11 and two video cameras 21a and 21b are installed in one room will be described. However, the number of projectors and video cameras is particularly limited to this example. However, various modifications are possible. For example, when estimating a user's operation and identifying a change in clothes for each room such as a corridor, bedroom, living room, kitchen, washroom, and bathroom, at least one projector and at least one video for each room. A camera may be installed, and only a user's operation may be estimated using only one video camera. Furthermore, when a wider range of observation is required, a plurality of projectors and a plurality of video cameras may be installed. In particular, when detecting a change in clothes, it is desirable to combine a plurality of projectors and video cameras in order to obtain a three-dimensional position around the user.

投影パターン生成部13は、ユーザの3次元位置分布(3次元形状)を計測するために、複数のスポット赤外光からなる全体赤外線スポットパターン、例えば、マトリックス状にスポット赤外光が配置された赤外線スポットパターンを生成する。投影パターン分割部12は、複数のスポット赤外光を撮影画像上で互いに干渉しないスポット赤外光群に分割する。具体的には、投影パターン分割部12は、ビデオカメラ21a,21bによる観察時に各部分赤外線スポットパターン内でスポット赤外光を独立に観察できるように、各部分赤外線スポットパターン内でのスポット赤外光の位置関係を計算して全体赤外線スポットパターンを複数の部分赤外線スポットパターンに分割する。   In order to measure a user's three-dimensional position distribution (three-dimensional shape), the projection pattern generation unit 13 is arranged with a whole infrared spot pattern composed of a plurality of spot infrared lights, for example, spot infrared lights arranged in a matrix. An infrared spot pattern is generated. The projection pattern dividing unit 12 divides the plurality of spot infrared lights into spot infrared light groups that do not interfere with each other on the captured image. Specifically, the projection pattern dividing unit 12 allows spot infrared light in each partial infrared spot pattern so that spot infrared light can be independently observed in each partial infrared spot pattern during observation by the video cameras 21a and 21b. The positional relationship of light is calculated to divide the entire infrared spot pattern into a plurality of partial infrared spot patterns.

投影パターン分割部12は、分割された部分赤外線スポットパターンでスポット赤外光を投影するようにプロジェクタ11を制御するとともに、現在の部分赤外線スポットパターンを3次元位置検出部22に通知する。プロジェクタ11は、分割された部分赤外線スポットパターンで複数のスポット赤外光をユーザに投影する。したがって、複数のスポット赤外光間の混同を避けることができ、スポット赤外光を検出する処理を簡略化及び高速化することができる。   The projection pattern dividing unit 12 controls the projector 11 to project spot infrared light with the divided partial infrared spot pattern, and notifies the three-dimensional position detection unit 22 of the current partial infrared spot pattern. The projector 11 projects a plurality of spot infrared lights on the user with the divided partial infrared spot patterns. Therefore, confusion between a plurality of spot infrared lights can be avoided, and the process of detecting spot infrared lights can be simplified and speeded up.

3次元位置検出部22は、現在の部分赤外線スポットパターンを参照してビデオカメラ21a,21bにより撮影された2次元画像上のスポット赤外光の位置からユーザ及び器具の表面の3次元位置分布を検出する。3次元位置復元部23は、部分赤外線スポットパターン毎に検出されたユーザ及び器具の表面の3次元位置分布を纏めて全体赤外線スポットパターンに対するユーザ及び器具の表面の3次元位置分布を分離してそれぞれ復元する。また、3次元位置復元部23は、復元したユーザの表面の3次元位置分布からユーザの観測位置を検出して投影パターン生成部13へ出力するともに、ユーザの観測位置を検出することによりユーザを追跡する。   The three-dimensional position detection unit 22 refers to the current partial infrared spot pattern and calculates the three-dimensional position distribution of the surface of the user and the instrument from the positions of the spot infrared light on the two-dimensional images photographed by the video cameras 21a and 21b. To detect. The three-dimensional position restoration unit 23 collects the three-dimensional position distributions of the surface of the user and the instrument detected for each partial infrared spot pattern and separates the three-dimensional position distributions of the surface of the user and the instrument with respect to the entire infrared spot pattern, respectively. Restore. The three-dimensional position restoration unit 23 detects the user's observation position from the restored three-dimensional position distribution on the surface of the user and outputs the detected position to the projection pattern generation unit 13. Chase.

投影パターン生成部13は、検出された観測位置に応じて全体赤外線スポットパターンの投影位置を補正し、投影パターン分割部12は、補正された全体赤外線スポットパターンを複数の部分赤外線スポットパターンに分割し、プロジェクタ11は、補正された部分赤外線スポットパターンで複数のスポット赤外光をユーザ及び器具に投影する。このとき、3次元位置検出部22は、補正後の部分赤外線スポットパターンによるスポット赤外光の位置からユーザ及び器具の表面の3次元位置分布を検出し、3次元位置復元部23は、補正後の部分赤外線スポットパターン毎に検出されたユーザ及び器具の表面の3次元位置分布を纏めて補正後の全体赤外線スポットパターンに対するユーザ及び器具の表面の3次元位置分布を分離して復元し、姿勢推定部24へ出力する。   The projection pattern generation unit 13 corrects the projection position of the whole infrared spot pattern according to the detected observation position, and the projection pattern division unit 12 divides the corrected whole infrared spot pattern into a plurality of partial infrared spot patterns. The projector 11 projects a plurality of spot infrared lights onto the user and the instrument with the corrected partial infrared spot pattern. At this time, the three-dimensional position detection unit 22 detects the three-dimensional position distribution of the surface of the user and the instrument from the position of the spot infrared light according to the corrected partial infrared spot pattern, and the three-dimensional position restoration unit 23 The three-dimensional position distributions of the surface of the user and the tool detected for each partial infrared spot pattern are collectively collected and restored, and the three-dimensional position distribution of the surface of the user and the tool with respect to the corrected whole infrared spot pattern is separated and restored to estimate the posture. To the unit 24.

分布データベース25には、人間の典型姿勢毎に人間の表面の基準3次元位置分布が予め記憶され、例えば、人間が直立して前方を向いている姿勢、人間が直立して左方を向いている姿勢、人間が直立して右方を向いている姿勢、人間が着席して前方を向いている姿勢、人間が着席して左方を向いている姿勢、人間が着席して右方を向いている姿勢、人間が着替えをしている姿勢、人間が手を差し出している姿勢等を表す基準3次元位置分布が記憶されている。   In the distribution database 25, a reference three-dimensional position distribution of the human surface is stored in advance for each human typical posture. For example, a posture in which the human is standing upright and facing forward, and a human is standing upright and facing left. Posture, human standing upright, human being seated and facing forward, human seated and facing left, human seated and facing right A reference three-dimensional position distribution representing a posture, a posture in which a human is changing clothes, a posture in which a human is holding out a hand, and the like is stored.

また、分布データベース25には、ユーザが使用する器具の典型使用状態毎に器具の表面の基準3次元位置分布が予め記憶されている。器具としては、可動部分を有する電気製品、家具、生活用品等が該当し、例えば、便器、洋服ダンス等が挙げられ、便器の蓋の閉状態及び開状態、洋服ダンスの扉の閉状態及び開状態等を表す基準3次元位置分布が記憶されている。なお、分布データベース25に記憶されるユーザ及び器具の基準3次元位置分布は、上記の例に特に限定されず、他の姿勢及び使用状態を表す基準3次元位置分布を記憶するようにしてもよい。   The distribution database 25 stores in advance a reference three-dimensional position distribution of the surface of the instrument for each typical usage state of the instrument used by the user. Appliances include electric parts with moving parts, furniture, daily necessities, etc., for example, toilets, clothes dance, etc., toilet cover closed and open, clothes dance door closed and open. A reference three-dimensional position distribution representing a state or the like is stored. The reference three-dimensional position distribution of the user and the instrument stored in the distribution database 25 is not particularly limited to the above example, and a reference three-dimensional position distribution representing another posture and use state may be stored. .

姿勢推定部24は、復元されたユーザ及び器具の表面の3次元位置分布と分布データベース25に記憶されているユーザ及び器具の基準3次元位置分布とを比較してユーザの現在の姿勢及び器具の使用状態を推定し、推定結果を動作推定部30へ出力する。なお、この姿勢推定処理は、2台のビデオカメラ21a,21bから得られた各画像を用いて実行してもよいし、ビデオカメラ21a,21b毎又は一方のビデオカメラのみを用いて実行してもよい。   The posture estimation unit 24 compares the restored three-dimensional position distribution of the surface of the user and the device and the reference three-dimensional position distribution of the user and the device stored in the distribution database 25 to compare the current posture of the user and the device. The usage state is estimated, and the estimation result is output to the motion estimation unit 30. This posture estimation process may be executed using each image obtained from the two video cameras 21a and 21b, or may be executed for each video camera 21a and 21b or using only one video camera. Also good.

一方、ユーザの服装変化の識別を行う場合、3次元位置検出部22は、現在の部分赤外線スポットパターンを参照してビデオカメラ21a,21bにより撮影された2次元画像上のスポット赤外光の位置から各撮影方向のユーザの表面(異なる表面)の3次元位置分布を検出する。3次元位置復元部23は、部分赤外線スポットパターン毎に検出された各撮影方向のユーザの表面の3次元位置分布を纏めて全体赤外線スポットパターンに対する各撮影方向のユーザの表面の3次元位置分布を復元し、前回位置保持部26及び変化部位検出部27へ出力する。   On the other hand, when identifying a change in clothes of the user, the three-dimensional position detection unit 22 refers to the current partial infrared spot pattern, and the position of the spot infrared light on the two-dimensional image captured by the video cameras 21a and 21b. The three-dimensional position distribution of the user's surface (different surfaces) in each shooting direction is detected. The three-dimensional position restoration unit 23 collects the three-dimensional position distribution of the user's surface in each photographing direction detected for each partial infrared spot pattern and determines the three-dimensional position distribution of the user's surface in each photographing direction with respect to the entire infrared spot pattern. The data is restored and output to the previous position holding unit 26 and the change site detection unit 27.

前回位置保持部26は、各撮影方向のユーザの表面の3次元位置分布を保持する。変化部位検出部27は、所定時間前の各撮影方向のユーザの表面の3次元位置分布を前回位置保持部26から読み出し、3次元位置復元部23から出力される各撮影方向のユーザの表面の3次元位置分布と比較してユーザの服装の変化が生じた部位を検出し、この部位の3次元位置の増減方向とともに服装変化識別部28へ出力する。   The previous position holding unit 26 holds a three-dimensional position distribution on the surface of the user in each shooting direction. The change site detection unit 27 reads the three-dimensional position distribution of the user's surface in each imaging direction before a predetermined time from the previous position holding unit 26 and outputs the surface of the user in each imaging direction output from the three-dimensional position restoration unit 23. A part where a change in the clothes of the user has occurred is detected as compared with the three-dimensional position distribution, and is output to the clothes change identification unit 28 along with the increase / decrease direction of the three-dimensional position of this part.

服装変化部位データベース29には、人間の典型的な衣服毎に当該衣服の着脱により変化が生じる部位を表す部位情報が予め記憶されている。服装変化識別部28は、検出された部位と服装変化部位データベース29に記憶されている部位とを比較して変化が生じた衣服の種類を識別するとともに、3次元位置の増減方向を基準にして、増加している場合は識別した衣服を着ていると判断し、減少している場合は識別した衣服を脱いでいると判断し、識別結果及び判断結果を動作推定部30へ出力する。   In the clothing change part database 29, part information representing a part where a change occurs due to attachment / detachment of the clothes for each typical human clothes is stored in advance. The clothes change identification unit 28 compares the detected part with the part stored in the clothes change part database 29 to identify the type of clothes that have changed, and based on the increase / decrease direction of the three-dimensional position. If it has increased, it is determined that the identified clothes are being worn, and if it has decreased, it is determined that the identified clothes have been removed, and the identification result and the determination result are output to the motion estimation unit 30.

動作データベース31には、各部屋においてユーザが行い得る動作毎に当該動作を構成するユーザの姿勢を表す姿勢情報及び/又は器具の使用状態を表す使用状態情報、必要に応じて衣服の種類を表す衣服情報が予め記憶されている。また、動作データベース31には、次にユーザが行うべき動作に関する指示が必要な動作に対して動作指示フラグが動作毎に予め記憶されている。   In the motion database 31, for each motion that can be performed by the user in each room, posture information indicating the posture of the user constituting the motion and / or usage status information indicating the usage status of the appliance, and the type of clothing as necessary. Clothes information is stored in advance. In the operation database 31, an operation instruction flag is stored in advance for each operation for an operation that requires an instruction regarding an operation to be performed by the user next.

例えば、トイレにビデオカメラ21a,21b等が設置されている場合、ユーザが便器の前に立つ動作に対して人間が直立して前方を向いている姿勢及び便器の蓋の閉状態が対応付けられ、ユーザが便器の蓋を開ける動作に対して便器の蓋の開状態が対応付けられ、ユーザが用便を終了して立ち上る動作に対して人間が着席して前方を向いている姿勢及び人間が直立して前方を向いている姿勢が対応付けられ、それぞれトイレにおけるトイレ動作情報として動作データベース31に記憶されている。   For example, when the video cameras 21a, 21b, etc. are installed in the toilet, the posture in which the user stands upright and the front of the user standing in front of the toilet and the closed state of the toilet lid are associated with each other. The opening state of the toilet bowl is associated with the movement of the user opening the toilet lid, and the human being seated and facing forward with respect to the movement of the user exiting the toilet and standing up The postures standing upright and facing forward are associated with each other and stored in the operation database 31 as toilet operation information in the toilet.

また、洋服ダンスが配置された部屋にビデオカメラ21a,21b等が設置されている場合、ユーザが洋服ダンスの前に立つ動作に対して人間が直立して前方を向いている姿勢及び洋服ダンスの扉の閉状態が対応付けられ、ユーザが洋服ダンスを開ける動作に対して洋服ダンスの扉の開状態が対応付けられ、ユーザが上着を着る動作に対して人間が着替えをしている姿勢及び上着が対応付けられ、ユーザがズボン(又はスカート)を穿いている動作に対して人間が着替えをしている姿勢及びズボン(又はスカート)が対応付けられ、それぞれ洋服ダンスの配置された部屋における着替え動作情報として動作データベース31に記憶されている。なお、動作データベース31に記憶される姿勢情報、使用状態情報及び衣服情報は、上記の例に特に限定されず、他の姿勢、使用状態及び衣服を表す情報を記憶するようにしてもよい。   In addition, when video cameras 21a, 21b, etc. are installed in a room where clothes dance is arranged, a posture in which a human is standing upright and facing forward with respect to the movement of the user standing in front of clothes dance and The posture in which the closed state of the door is associated, the opening state of the clothes dance door is associated with the movement of the user opening the clothes dance, and the user is changing clothes for the movement of the user wearing the jacket In the room where the outerwear is associated and the posture that the person is changing and the trousers (or skirt) are associated with the movement of the user wearing the trousers (or skirt), and the clothes dance is arranged respectively. It is stored in the operation database 31 as changing operation information. Note that the posture information, use state information, and clothing information stored in the motion database 31 are not particularly limited to the above example, and information representing other postures, use states, and clothes may be stored.

動作推定部30は、推定されたユーザの姿勢、器具の使用状態及び衣服の種類と動作データベース31に記憶されている姿勢情報、使用状態情報及び衣服情報とを比較してユーザの現在の動作を推定し、推定した動作に対して動作指示フラグが付加されているか否かを判断することにより、次にユーザが行うべき動作に対して動作指示が必要であるか否かを判断する。動作推定部30は、動作指示が必要であると判断した場合、指示が必要な動作を特定して当該動作に対応付けられている動作指示情報をユーザに提示するように音声出力及び映像表示部32に指示する。   The motion estimation unit 30 compares the estimated posture of the user, the usage state of the appliance and the type of clothing with the posture information, usage state information, and clothing information stored in the motion database 31 to determine the current motion of the user. By estimating and determining whether or not an operation instruction flag is added to the estimated operation, it is determined whether or not an operation instruction is necessary for the next operation to be performed by the user. When it is determined that an operation instruction is necessary, the motion estimation unit 30 identifies the operation that requires the instruction and presents the operation instruction information associated with the operation to the user. 32.

動作指示情報データベース33には、指示が必要な動作毎に動作指示情報が予め記憶されている。音声出力及び映像表示部32は、スピーカ、表示装置及びこれらの制御回路から構成され、動作推定部30により特定された動作に対応付けられている動作指示情報を動作指示情報データベース33から読み出し、読み出した動作指示情報を音声により出力するとともに、映像(文字情報)により表示する。   The operation instruction information database 33 stores operation instruction information for each operation that requires an instruction. The audio output and video display unit 32 includes a speaker, a display device, and control circuits thereof, and reads and reads out the operation instruction information associated with the operation specified by the operation estimation unit 30 from the operation instruction information database 33. The operation instruction information is output by voice and displayed by video (character information).

例えば、トイレにビデオカメラ21a,21b等が設置されている場合、ユーザがトイレに入り、便器の前に立つと、ユーザが便器の前に立つ動作に対応付けられている動作指示情報である「蓋を開けて下さい。」との音声指示及び映像表示が行われ、ユーザが便器の蓋を開けると、ユーザが便器の蓋を開ける動作に対応付けられている動作指示情報である「座って下さい。」との音声指示及び映像表示が行われ、ユーザが用便を終了して立ち上がると、ユーザが用便を終了して立ち上る動作に対応付けられている動作指示情報である「水を流して下さい。」との音声指示及び映像表示が行われる。   For example, when video cameras 21a, 21b, etc. are installed in the toilet, when the user enters the toilet and stands in front of the toilet, the operation instruction information is associated with the operation in which the user stands in front of the toilet. When the user opens the toilet lid, the voice instruction “Open the lid” is displayed, and when the user opens the toilet lid, the operation instruction information associated with the operation of the user opening the toilet lid is “Sit down. When the user exits the toilet and stands up, the operation instruction information associated with the operation that the user finishes and exits the toilet is “flowing water”. Please give a voice instruction and video display.

また、洋服ダンスが配置された部屋にビデオカメラ21a,21b等が設置されている場合、ユーザが洋服ダンスが配置された部屋に入り、洋服ダンスの前に立つと、ユーザが洋服ダンスの前に立つ動作に対応付けられている動作指示情報である「洋服ダンスを開けて下さい。」との音声指示及び映像表示が行われ、ユーザが洋服ダンスを開けると、ユーザが洋服ダンスを開ける動作に対応付けられている動作指示情報である「上着を着て下さい。」との音声指示及び映像表示が行われ、ユーザが上着を着ると、ユーザが上着を着る動作に対応付けられている動作指示情報である「ズボン(又はスカート)を穿いて下さい。」との音声指示及び映像表示が行われ、ユーザがズボン(又はスカート)を穿くと、ユーザがズボン(又はスカート)を穿いている動作に対応付けられている動作指示情報である「洋服ダンスを閉めて下さい。」との音声指示及び映像表示が行われる。   In addition, when video cameras 21a, 21b, etc. are installed in a room where clothes dance is arranged, if the user enters a room where clothes dance is arranged and stands before the clothes dance, the user will see before the clothes dance. The voice instruction and video display of “Please open clothes dance.”, Which is the operation instruction information associated with the standing action, is performed, and when the user opens the clothes dance, the user can open the clothes dance. When the user wears a jacket, a voice instruction and a video display indicating “Please wear a jacket”, which is the attached operation instruction information, are performed, and the user is associated with the operation of wearing the jacket. When a voice instruction and video display indicating “please wear trousers (or skirt)” as operation instruction information are performed and the user wears trousers (or skirt), the user wears trousers (or skirt). Wear and is an operation instruction information that is associated with the operation is "Please close the wardrobe." Voice instruction and video display and is carried out.

なお、動作指示情報の提示方法は、上記の例に特に限定されず、音声及び映像の一方のみを用いて提示するようにしてもよい。また、動作指示情報も、上記の例に特に限定されず、次に行うべき動作に関する他の情報を提示するようにしてもよい。   The method of presenting the operation instruction information is not particularly limited to the above example, and may be presented using only one of audio and video. Also, the operation instruction information is not particularly limited to the above example, and other information regarding the operation to be performed next may be presented.

本実施の形態では、プロジェクタ11、投影パターン分割部12、投影パターン生成部13、ビデオカメラ21a,21b、3次元位置検出部22及び3次元位置復元部23が検出手段の一例に相当し、姿勢推定部24、分布データベース25、動作推定部30、動作データベース31が推定手段の一例に相当し、音声出力及び映像表示部32及び動作指示情報データベース33が提示手段の一例に相当する。   In the present embodiment, the projector 11, the projection pattern dividing unit 12, the projection pattern generating unit 13, the video cameras 21a and 21b, the three-dimensional position detecting unit 22, and the three-dimensional position restoring unit 23 correspond to an example of a detection unit, and the posture The estimation unit 24, the distribution database 25, the motion estimation unit 30, and the motion database 31 correspond to an example of an estimation unit, and the audio output and video display unit 32 and the motion instruction information database 33 correspond to an example of a presentation unit.

また、プロジェクタ11、投影パターン分割部12及び投影パターン生成部13が投影手段の一例に相当し、ビデオカメラ21a,21bが撮影手段並びに第1及び第2の撮影手段の一例に相当し、3次元位置検出部22及び3次元位置復元部23が位置検出手段の一例に相当する。   In addition, the projector 11, the projection pattern dividing unit 12, and the projection pattern generation unit 13 correspond to an example of a projection unit, and the video cameras 21a and 21b correspond to an example of an imaging unit and first and second imaging units, and are three-dimensional. The position detection unit 22 and the three-dimensional position restoration unit 23 correspond to an example of a position detection unit.

また、分布データベース25が分布記憶手段の一例に相当し、姿勢推定部24が姿勢推定手段の一例に相当し、動作データベース31が動作記憶手段の一例に相当し、動作推定部30が動作推定手段の一例に相当する。   In addition, the distribution database 25 corresponds to an example of a distribution storage unit, the posture estimation unit 24 corresponds to an example of a posture estimation unit, the motion database 31 corresponds to an example of a motion storage unit, and the motion estimation unit 30 includes a motion estimation unit. It corresponds to an example.

また、前回位置保持部26が保持手段の一例に相当し、変化部位検出部27が部位検出手段の一例に相当し、服装変化部位データベース29が衣服記憶手段の一例に相当し、服装変化識別部28が識別手段の一例に相当し、投影パターン分割部12及び投影パターン生成部13が分割手段の一例に相当し、プロジェクタ11が分割投影手段の一例に相当する。   The previous position holding unit 26 corresponds to an example of a holding unit, the change site detection unit 27 corresponds to an example of a site detection unit, the clothing change site database 29 corresponds to an example of a clothing storage unit, and a clothing change identification unit. 28 corresponds to an example of an identification unit, the projection pattern division unit 12 and the projection pattern generation unit 13 correspond to an example of a division unit, and the projector 11 corresponds to an example of a division projection unit.

次に、上記のように構成された動作指示装置の各動作について詳細に説明する。まず、赤外線スポットパターンの分割処理について説明する。人間の動作を正確に推定するためには、人間の身体の表面に3次元位置の高密度のマップを得る必要があるが、パターン投影を用いた高密度3次元位置検出を行う場合、複数スポットパターンのカメラ画像上での観測位置間の重なりにより3次元再構成処理において混同が生じる。このため、本実施の形態では、全体赤外線スポットパターンを部分赤外線スポットパターンに分割する赤外線スポットパターンの分割処理により複数スポットパターンのカメラ画像上での観測位置間の重なりを防止している。この赤外線スポットパターンの分割処理では、検出処理を簡略化するために交差判断に基づいて、全体赤外線スポットパターンを複数の部分赤外線スポットパターンに分割する。   Next, each operation of the operation instruction device configured as described above will be described in detail. First, the infrared spot pattern dividing process will be described. In order to accurately estimate human motion, it is necessary to obtain a high-density map of the three-dimensional position on the surface of the human body. When performing high-density three-dimensional position detection using pattern projection, multiple spots are used. Confusion occurs in the three-dimensional reconstruction process due to the overlapping of the observation positions on the camera image of the pattern. For this reason, in this Embodiment, the overlap between the observation positions on the camera image of a several spot pattern is prevented by the division | segmentation process of the infrared spot pattern which divides | segments a whole infrared spot pattern into a partial infrared spot pattern. In this infrared spot pattern dividing process, the entire infrared spot pattern is divided into a plurality of partial infrared spot patterns based on the intersection determination in order to simplify the detection process.

まず、一定間隔でプロジェクタ画像面上の投影スポットを選択する。スポット間隔は用途に応じて適宜決定される。次に、カメラ画像上の各点に対する観察可能領域(例えば、エピポーラ線上の有限部分)を計算する。このとき、プロジェクタ平面上の点(Xp,Yp)、カメラ平面上の2次元観察点(Xc,Yc)は、下記の式を満たすことが知られている。   First, projection spots on the projector image plane are selected at regular intervals. The spot interval is appropriately determined according to the application. Next, an observable region (for example, a finite portion on the epipolar line) for each point on the camera image is calculated. At this time, it is known that the point (Xp, Yp) on the projector plane and the two-dimensional observation point (Xc, Yc) on the camera plane satisfy the following expressions.

Figure 0004134147
Figure 0004134147

ここで、Xp,Ypは、プロジェクタ画像面上の投影点の位置であり、Xc,Ycは、カメラ座標の観察点を示す。通常、シーン中に投影された対象点の高さは、ある範囲(Z<Z<Ztop)内にあり、エピポーラ線の一部に観察範囲を制限することができる。ここで、Z=Zに対する2次元観察点を(S,S)、Z=Ztopに対する2次元観察点を(L,L)で表すと(例えば、図2の例では、Z=0,Ztop=200)、これらの間の投影点に対する観察点は、2点(S,S)、(L,L)を連結したセグメント上にある。 Here, Xp and Yp are the positions of projection points on the projector image plane, and Xc and Yc indicate observation points of camera coordinates. Usually, the height of the target point projected in the scene is within a certain range (Z 0 <Z <Z top ), and the observation range can be limited to a part of the epipolar line. Here, the two-dimensional observation point for Z = Z 0 is represented by (S X , S Y ), and the two-dimensional observation point for Z = Z top is represented by (L X , L Y ) (for example, in the example of FIG. Z 0 = 0, Z top = 200), and the observation point for the projection point between them is on a segment connecting two points (S X , S Y ) and (L X , L Y ).

次に、各二つのセグメント間の交差を決定する。ここで、二つのセグメント間の始点及び終点をそれぞれ(SX1,SY1)−(LX1,LY1)、(SX2,SY2)−(LX2,LY2)とすると、((SX1−LX1)*(SY2−SY1)+(SY1−LY1)*(SX1−SX2))*((SX1−LX1)*(LY2−SY1)+(SY1−LY1)*(SX1−LX2))<0且つ((SX2−LX2)*(SY1−SY2)+(SY2−LY2)*(SX2−SX1))*((SX2−LX2)*(LY1−SY2)+(SY2−LY2)*(SX2−LX1))<0であれば、二つのセグメントは交差すると判定される。実際には、各画素の面積を考慮した交差判定を行う必要があるが、ここでは説明は割愛する。 Next, the intersection between each two segments is determined. Here, if the start point and the end point between two segments are (S X1 , S Y1 ) − (L X1 , L Y1 ), (S X2 , S Y2 ) − (L X2 , L Y2 ), respectively, ((S X1 -L X1) * (S Y2 -S Y1) + (S Y1 -L Y1) * (S X1 -S X2)) * ((S X1 -L X1) * (L Y2 -S Y1) + (S Y1 -L Y1) * (S X1 -L X2)) <0 and ((S X2 -L X2) * (S Y1 -S Y2) + (S Y2 -L Y2) * (S X2 -S X1)) If * ((S X2 −L X2 ) * (L Y1 −S Y2 ) + (S Y2 −L Y2 ) * (S X2 −L X1 )) <0, it is determined that the two segments intersect. Actually, it is necessary to perform the intersection determination in consideration of the area of each pixel, but the description is omitted here.

N個のセグメントに対してN×Nの組合せがあり、その結果は2値(0:交差、1:交差無)からなる下記の行列で表される。   There are N × N combinations for N segments, and the result is represented by the following matrix consisting of binary values (0: crossing, 1: no crossing).

Figure 0004134147
Figure 0004134147

M個のビデオカメラがあるとき、上記の行列もM個となり、下記のように、全ての行列C(1≦i≦M)の論理積を取ることにより適切な投影を満足する条件を計算することができる。 When there are M video cameras, the above matrix is also M, and by calculating the logical product of all the matrices C i (1 ≦ i ≦ M), a condition that satisfies an appropriate projection is calculated as follows. can do.

Figure 0004134147
Figure 0004134147

次に、投影パターンの効率化について説明する。観測が必要な3次元点(スポット赤外光)の数をL個とすると、投影点i,jの(1<i,j<L)の組合せは、L×Lとなる。ここで、投影点i,jを同時に投影しても互いに干渉しない場合はCi,j=1、投影点i,jを同時に投影すると干渉する場合はCi,j=0とし、Ci,j(1<i,j<L)からなる行列Xを準備する。なお、行列Xの対角要素は全て1となる。 Next, the efficiency of the projection pattern will be described. If the number of three-dimensional points (spot infrared light) that needs to be observed is L, the combination of projection points i and j (1 <i, j <L) is L × L. Here, C i, j = 1 if the projection points i, j are simultaneously projected and C i, j = 0 if they do not interfere with each other, and C i, j = 0 if the projection points i, j are projected simultaneously . A matrix X composed of j (1 <i, j <L) is prepared. The diagonal elements of the matrix X are all 1.

投影パターン生成部13は、予め記憶している行列Xを全体赤外線スポットパターンとして投影パターン分割部12へ出力する。投影パターン分割部12は、行列Xに対して下記式(6)により表される手順Pを適用して必要最低限の部分赤外線スポットパターンの数及びそのときの部分赤外線スポットパターンを決定する。   The projection pattern generation unit 13 outputs the matrix X stored in advance to the projection pattern division unit 12 as an overall infrared spot pattern. The projection pattern dividing unit 12 determines the minimum number of partial infrared spot patterns and the partial infrared spot patterns at that time by applying the procedure P represented by the following equation (6) to the matrix X.

Figure 0004134147
Figure 0004134147

具体的には、任意の行列A(G行H列、行列の各要素A(g,h))に対してG×(G−1)の全組合せ中で、A∪A=Aとなるj行目(複数)を行列Aから取り除き、行列B(G’行H列、行列の各要素B(g’,h))を作成する。行列Bの各列の「1」の合計Sを上記式(7)により算出し、Sが最小となる列l(l=l(1),l(2),…,l(p))のそれぞれについてBkl=1となるk行目(k=k(1),k(2),…,k(q))についてBkm=0を満たすm列目のk行目を除いた要素からなる行列Cを作成する。投影パターン分割部12は、上記の処理を繰り返し、手順Pの回数が最小となる行の組合せAk(l),Ak(2),…を選択して部分赤外線スポットパターンを作成する。 Specifically, A i ∪A j = A i among all combinations of G × (G−1) for an arbitrary matrix A (G rows and H columns, each element A (g, h) of the matrix). The j-th row (plurality) is removed from the matrix A, and a matrix B (G ′ row H column, matrix element B (g ′, h)) is created. The total S of “1” in each column of the matrix B is calculated by the above formula (7), and the column l (l = 1 (1), l (2),..., L (p)) where S is the smallest is calculated. For each k-th row (k = k (1), k (2),..., K (q)) where B kl = 1, from the elements excluding the k-th row in the m-th column satisfying B km = 0 A matrix C is created. The projection pattern dividing unit 12 repeats the above processing, and selects a combination of rows A k (l) , A k (2) ,... That minimizes the number of steps P to create a partial infrared spot pattern.

図5は、部分赤外線スポットパターンを作成する手順Pの一例を説明するための図であり、図6は、図5の(a)に示す行列Aから図5の(b)に示す行列Cを生成する手順Pを詳細に説明するための図である。図5の(a)に示す行列Aから、手順Pにより行A4が選択されて図5の(b)に示す行列Cが生成される。具体的には、図6の(a)に示すように、行列A(図5の(a)に示す行列A)では、A1∪A5=A5、A2∪A4=A4となるため、行A1,A2が消去され、図6の(b)に示すように、行列Bは、A3,A4,A5行目の要素から生成される。この行列Bの各列(h=1〜5)の「1」の合計Sは、1、1、3、2、2となる。次に、Sが最小となる列に着目する。例えば、Sが最小となる列の一つである第2列(h=2)に着目し、第2列の要素が「1」である行列Bの行B2(元の行列の行A4)を選択する。選択された行B2に注目して、要素が「0」である列を取り出すと、図6の(c)に示す行列が作成される。次に、行B2を取り除くと、図6の(d)に示す行列C(図5の(b)に示す行列C)が生成される。以上の処理により、手順Pが1回実行されたこととなる。   FIG. 5 is a diagram for explaining an example of a procedure P for creating a partial infrared spot pattern, and FIG. 6 shows a matrix C shown in FIG. 5B from a matrix A shown in FIG. It is a figure for demonstrating in detail the procedure P to produce | generate. From the matrix A shown in FIG. 5A, the row A4 is selected by the procedure P, and the matrix C shown in FIG. 5B is generated. Specifically, as shown in FIG. 6A, in the matrix A (matrix A shown in FIG. 5A), A1∪A5 = A5 and A2∪A4 = A4. A2 is deleted, and as shown in FIG. 6B, the matrix B is generated from the elements in the A3, A4, and A5 rows. The total S of “1” in each column (h = 1 to 5) of the matrix B is 1, 1, 3, 2, 2. Next, attention is paid to the column having the smallest S. For example, paying attention to the second column (h = 2) which is one of the columns in which S is the smallest, the row B2 of the matrix B in which the element of the second column is “1” (row A4 of the original matrix) select. Focusing on the selected row B2 and taking out a column whose element is “0”, a matrix shown in FIG. 6C is created. Next, when the row B2 is removed, a matrix C shown in (d) of FIG. 6 (matrix C shown in (b) of FIG. 5) is generated. With the above processing, the procedure P is executed once.

再び図5を参照して、図5の(b)に示す行列Cから、手順Pにより行A5が選択されて図5の(c)に示す行列Cが生成される。この場合、手順Pの回数は2回となり、ルートはA4→A5となる。同様に、図5の(a)に示す行列Aから、手順Pにより図5の(d)に示す行列Cが生成される(行列Bの第1列(h=1)に着目し、行B3(元の行列の行A5)を選択)。さらに、図5の(d)に示す行列Cから、手順Pにより行A4が選択されて図5の(e)に示す行列Cが生成される。この場合、手順Pの回数は2回となり、ルートはA5→A4となる。本例の場合、手順Pの最小回数はいずれも2回であるため、ルートA4→A5又はルートA5→A4を使用して部分赤外線スポットパターンが作成される。   Referring to FIG. 5 again, row A5 is selected by procedure P from matrix C shown in FIG. 5B, and matrix C shown in FIG. 5C is generated. In this case, the number of procedures P is two, and the route is A4 → A5. Similarly, a matrix C shown in (d) of FIG. 5 is generated from the matrix A shown in (a) of FIG. 5 by the procedure P (focusing on the first column (h = 1) of the matrix B, row B3 (Select original matrix row A5)). Further, the row A4 is selected from the matrix C shown in FIG. 5D by the procedure P, and the matrix C shown in FIG. 5E is generated. In this case, the number of times of the procedure P is 2, and the route is A5 → A4. In this example, since the minimum number of times of procedure P is two, the partial infrared spot pattern is created using route A4 → A5 or route A5 → A4.

上記の赤外線スポットパターンの分割処理により、複数のスポット赤外光が撮影画像上で互いに干渉しない部分赤外線スポットパターンに分割され、分割された部分赤外線スポットパターンによりスポット赤外光がユーザ及び器具に対して投影されるので、ユーザ及び器具の表面の3次元位置分布の検出処理を簡略化することができるともに、ロバストな3次元測定を行うことができる。   By the above infrared spot pattern division processing, a plurality of spot infrared lights are divided into partial infrared spot patterns that do not interfere with each other on the captured image, and the spot infrared lights are directed to the user and the instrument by the divided partial infrared spot patterns. Therefore, the detection process of the three-dimensional position distribution on the surface of the user and the instrument can be simplified, and robust three-dimensional measurement can be performed.

図7は、ユーザの輪郭を検出する際に使用するエッジ検出フィルタの一例を示す図であり、図8は、赤外光点の検出結果の一例を示す図である。ビデオカメラ21a,21bは、スポット赤外光が撮影画像上で互いに干渉しない部分赤外線スポットパターン毎にユーザの表面に投影された複数の赤外光点を順次撮影し、3次元位置検出部22は、撮影画像上の図7の(a)に示す注目画素APに対して図7の(b)に示す3×3のシンプルなエッジフィルタを適用して赤外光点を検出し、3次元位置復元部23は、ユーザの表面の3次元位置分布を全体的に復元する。この結果、図8に示す赤外光点を検出することができた。   FIG. 7 is a diagram illustrating an example of an edge detection filter used when detecting the contour of a user, and FIG. 8 is a diagram illustrating an example of a detection result of an infrared light spot. The video cameras 21a and 21b sequentially photograph a plurality of infrared light spots projected on the surface of the user for each partial infrared spot pattern in which spot infrared light does not interfere with each other on the photographed image, and the three-dimensional position detection unit 22 The infrared light spot is detected by applying a 3 × 3 simple edge filter shown in FIG. 7B to the target pixel AP shown in FIG. The restoration unit 23 totally restores the three-dimensional position distribution on the surface of the user. As a result, the infrared light spot shown in FIG. 8 could be detected.

このように、スポット赤外光が撮影画像上で互いに干渉しない部分赤外線スポットパターン毎にユーザ及び器具の表面に投影された複数の赤外光点が順次撮影され、部分赤外線スポットパターン毎に撮影された赤外光点の位置を基にユーザ及び器具の表面の3次元位置分布が順次検出され、最終的に全体的なユーザ及び器具の表面の3次元位置分布を復元することができるので、ユーザ及び器具の表面の3次元位置分布を高速且つ効率的に検出することができる。   In this way, a plurality of infrared light spots projected on the surface of the user and the instrument are sequentially photographed for each partial infrared spot pattern in which spot infrared light does not interfere with each other on the photographed image, and photographed for each partial infrared spot pattern. Since the three-dimensional position distribution of the surface of the user and the instrument is sequentially detected based on the position of the infrared light spot, and finally the entire three-dimensional position distribution of the surface of the user and the instrument can be restored. In addition, the three-dimensional position distribution on the surface of the instrument can be detected quickly and efficiently.

次に、検出されたユーザの表面の3次元位置分布の観測位置の補正処理について説明する。常に一定の位置に赤外線スポットパターンを投影すると、ユーザの移動に伴って観測対象となるユーザの3次元位置、すなわち観測位置にずれが生じ、投影される赤外光の空間的な解像度が低いほど、一般にずれが大きくなる。このずれにより事前に取得した特定の形状に関する基準座標値(分布データベース25に記憶されている姿勢毎のユーザの表面の基準3次元位置分布)との比較や異なる時刻に得られた座標値同士の比較により形状変化に関する評価が困難となり、以下に説明する観測位置の補正処理が必要となる。   Next, a description will be given of correction processing of the observed position of the detected three-dimensional position distribution on the surface of the user. When an infrared spot pattern is always projected at a certain position, a shift occurs in the three-dimensional position of the user to be observed, that is, the observation position as the user moves, and the lower the spatial resolution of the projected infrared light, Generally, the deviation becomes large. Comparison with reference coordinate values (a reference three-dimensional position distribution of the user's surface for each posture stored in the distribution database 25) relating to a specific shape acquired in advance by this deviation, or between coordinate values obtained at different times The comparison makes it difficult to evaluate the shape change, and the observation position correction process described below is necessary.

本実施の形態では、上記のずれを検出するための解像度の高い部分を有する赤外線スポットパターンを照射して観測を行い、ずれの検出結果に応じて基準3次元位置分布との比較に適した位置に観測位置を補正し、補正した観測位置を中心とする観測領域全体を観測するための赤外線スポットパターンを投影している。   In the present embodiment, observation is performed by irradiating an infrared spot pattern having a high-resolution part for detecting the above-described deviation, and a position suitable for comparison with the reference three-dimensional position distribution according to the deviation detection result An infrared spot pattern for observing the entire observation region centered on the corrected observation position is projected.

図9は、図1に示す動作指示装置の観測時の座標系を説明するための模式図である。図9に示すように、観測装置であるビデオカメラ21a(又は21b)の直下に位置する床面上の位置を世界座標系の原点とし、原点とユーザの前回観測位置を結ぶ水平線をY軸、原点から鉛直上向きをZ軸、Y軸及びZ軸とともに右手系をなす直交軸をX軸とする。   FIG. 9 is a schematic diagram for explaining a coordinate system at the time of observation of the motion instruction apparatus shown in FIG. As shown in FIG. 9, the position on the floor located immediately below the video camera 21a (or 21b) as the observation device is the origin of the world coordinate system, and the horizontal line connecting the origin and the previous observation position of the user is the Y axis, An orthogonal axis that forms a right-handed system together with the Z-axis, the Y-axis, and the Z-axis is defined as the X-axis.

図10は、赤外線スポットパターンの一例を示す模式図であり、図中の黒丸は赤外線スポットパターンを示している。図10の(a)に示すように、赤外線スポットパターンは、人間の外形の特徴的な部分、好ましくは、肩付近を基準とする水平方向領域AR及び中央上方の垂直方向領域BRに空間解像度の高い部分を有する。例えば、高解像度部分の空間解像度が2cm、その他の部分の空間解像度が10cmの赤外線スポットパターンを用いることができる。このとき、ビデオカメラ21a(又は21b)により撮影された画像から得られるのは、空間中の各観測点の3次元位置であり、領域AR,BRのそれぞれにおける奥行きYの変化点(x1,x2,z1)(人体の両肩点及び頭部の頂上点)を基準に人物領域と背景領域との境界位置を定めることができる。   FIG. 10 is a schematic diagram illustrating an example of an infrared spot pattern, and black circles in the figure indicate the infrared spot pattern. As shown in FIG. 10A, the infrared spot pattern has a spatial resolution in a characteristic part of the human outline, preferably in the horizontal area AR based on the vicinity of the shoulder and the vertical area BR above the center. Has a high part. For example, an infrared spot pattern in which the spatial resolution of the high resolution portion is 2 cm and the spatial resolution of the other portions is 10 cm can be used. At this time, what is obtained from the image captured by the video camera 21a (or 21b) is the three-dimensional position of each observation point in the space, and the change point (x1, x2) of the depth Y in each of the areas AR, BR. , Z1) The boundary position between the person region and the background region can be determined with reference to (the shoulder points of the human body and the top point of the head).

ここで、図10の(b)に示すように、3次元位置復元部23は、復元した3次元位置分布からx1,x2の中点((x1+x2)/2)を人体の中心線、z1を人体の頭部頂上点の高さとして決定し、観測位置となる人体頭部位置((x1+x2)/2,z1)を基準として観測領域全体を観測するための全体赤外線スポットパターンを生成するように投影パターン生成部13を制御し、プロジェクタ11から観測位置に応じた部分赤外線スポットパターンが投影される。   Here, as shown in FIG. 10B, the three-dimensional position restoration unit 23 determines the midpoint ((x1 + x2) / 2) of x1 and x2 from the restored three-dimensional position distribution as the center line of the human body and z1. It is determined as the height of the head top point of the human body, and an overall infrared spot pattern for observing the entire observation region is generated with reference to the human head position ((x1 + x2) / 2, z1) as the observation position. The projection pattern generation unit 13 is controlled, and a partial infrared spot pattern corresponding to the observation position is projected from the projector 11.

このように、ユーザの表面の3次元位置分布からユーザの3次元位置が検出され、検出されたユーザの3次元位置に応じて補正した観測位置を中心とする観測領域全体を観測するための赤外線スポットパターンを投影するので、ユーザが移動しても、3次元位置分布を高精度に検出することができる。この3次元位置分布と基準3次元位置分布とを比較してユーザの姿勢を推定しているので、常にユーザの姿勢を高精度に推定することができる。   In this way, the user's three-dimensional position is detected from the three-dimensional position distribution on the user's surface, and infrared light for observing the entire observation region centered on the observation position corrected according to the detected user's three-dimensional position. Since the spot pattern is projected, the three-dimensional position distribution can be detected with high accuracy even if the user moves. Since the user's posture is estimated by comparing the three-dimensional position distribution with the reference three-dimensional position distribution, the user's posture can always be estimated with high accuracy.

なお、人体は、縦長の形状を有しているため、一時的に人体頭部位置を観測できなくなり、z1の検出が不安定になる場合があるが、肩付近の水平方向領域ARが人体内に留まる限り、人体の中心線を検出することができ、この中心線が得られれば、中央上方の垂直方向領域BRを上下に拡大することで再びz1を検出することができる。例えば、図9に示すように、次回の観測における肩付近の水平方向領域ARの高さをz1−α(ここで、α>0、例えばα=30cm)とすることにより、再びz1を検出することができる。   Since the human body has a vertically long shape, the human head position cannot be observed temporarily, and z1 detection may become unstable. However, the horizontal area AR near the shoulder is As long as the center line of the human body can be detected, z1 can be detected again by enlarging the vertical region BR above the center in the vertical direction. For example, as shown in FIG. 9, z1 is detected again by setting the height of the horizontal region AR near the shoulder in the next observation to z1-α (where α> 0, for example, α = 30 cm). be able to.

次に、上記のように補正された赤外線スポットパターンを用いたユーザの動き追跡処理について説明する。動き追跡処理は、ユーザを含む背景を計測し、ユーザの最初の観測位置を取得する前処理と、取得したユーザの3次元位置に適するように補正した観測位置に赤外線スポットパターンを投影し、投影された赤外線スポットパターンを用いてユーザの表面の3次元位置分布を計測し、前回検出されたユーザの位置と比較して次のユーザの位置を決定し、これらの処理を繰り返す追跡処理とから構成される。   Next, a user motion tracking process using the infrared spot pattern corrected as described above will be described. The motion tracking process measures the background including the user, projects the infrared spot pattern to the pre-process for acquiring the user's first observation position, and corrects the observation position to be suitable for the acquired three-dimensional position of the user. A tracking process that measures the three-dimensional position distribution of the user's surface using the infrared spot pattern determined, determines the position of the next user in comparison with the previously detected user position, and repeats these processes. Is done.

図11は、図1に示す動作指示装置による前処理を説明するための模式図である。前処理として、図11に白丸で示す赤外線スポットパターンIPがユーザに対して投影され、3次元位置復元部23は、復元した3次元位置分布すなわちユーザを含む背景の3次元形状を観察し、観測領域における各点をランダムに連続して観測して深さが変化する領域においてユーザの観測位置を集中的に検出する。ここでの観測は、注目ブロックABのサイズとして、例えば、25×25画素のブロックを用いることができる。ユーザの観測位置を検出した後、3次元位置復元部23は、ユーザの3次元位置分布を繰り返し計測し、観測領域の中心近傍のブロックにおいてユーザを観察し、この位置の近傍領域(水平方向に配置されたブロック)を集中的にサーチする。   FIG. 11 is a schematic diagram for explaining preprocessing by the operation instruction apparatus shown in FIG. As preprocessing, an infrared spot pattern IP indicated by white circles in FIG. 11 is projected to the user, and the three-dimensional position restoration unit 23 observes and observes the restored three-dimensional position distribution, that is, the three-dimensional shape of the background including the user. By observing each point in the region continuously and randomly, the observation position of the user is intensively detected in the region where the depth changes. In this observation, for example, a block of 25 × 25 pixels can be used as the size of the target block AB. After detecting the user's observation position, the three-dimensional position restoration unit 23 repeatedly measures the user's three-dimensional position distribution, observes the user in a block near the center of the observation area, and displays the vicinity area (horizontal direction) of this position. Intensively search for (placed blocks).

図12は、図1に示す動作指示装置による追跡処理を説明するための模式図である。3次元位置復元部23は、前処理により検出されたユーザの観測位置を投影パターン生成部13へ出力し、投影パターン生成部13は、検出された観測位置に応じて赤外線スポットパターンの投影位置を補正し、プロジェクタ11から新たな赤外線スポットパターンで複数のスポット赤外光がユーザに照射される。   FIG. 12 is a schematic diagram for explaining the tracking process by the operation instruction apparatus shown in FIG. The three-dimensional position restoration unit 23 outputs the observation position of the user detected by the preprocessing to the projection pattern generation unit 13, and the projection pattern generation unit 13 determines the projection position of the infrared spot pattern according to the detected observation position. Then, the projector 11 irradiates the user with a plurality of spot infrared lights with a new infrared spot pattern.

このとき、3次元位置復元部23は、この新たな赤外線スポットパターンを用いてユーザの表面の3次元分布を計測し、サーチエリアSAにおける各ブロックの3次元位置と前回検出されたユーザの観測位置PPとを比較し、前回検出されたユーザの観測位置PPに最も近い点を次のユーザの観測位置NPとして選択する。上記の追跡処理を繰り返すことにより、ユーザを正確に追跡することができる。   At this time, the three-dimensional position restoration unit 23 measures the three-dimensional distribution of the user's surface using the new infrared spot pattern, and the three-dimensional position of each block in the search area SA and the previously detected user's observation position. The point closest to the user's observation position PP detected last time is selected as the next user's observation position NP. By repeating the above tracking process, the user can be tracked accurately.

次に、上記の赤外線スポットパターンを用いた動作指示処理について説明する。図13は、図1に示す動作指示装置による動作指示処理を説明するためのフローチャートである。   Next, the operation instruction process using the infrared spot pattern will be described. FIG. 13 is a flowchart for explaining the operation instruction process by the operation instruction device shown in FIG.

まず、ステップS11において、ユーザ及び器具の表面に上記の赤外線スポットパターン(3次元点列パターン)が照射され、3次元位置検出部22は、ビデオカメラ21a,21bにより撮影された2次元画像上のスポット赤外光の位置からユーザ及び器具の表面の3次元位置分布を検出し、3次元位置復元部23は、部分赤外線スポットパターン毎に検出されたユーザ及び器具の表面の3次元位置分布を纏めて全体赤外線スポットパターンに対するユーザ及び器具の表面の3次元位置分布を分離して復元し、ユーザ及び器具の表面の3次元位置分布を姿勢推定部24へ出力し、ユーザの表面の3次元位置分布を前回位置保持部26及び変化部位検出部27へ出力する。   First, in step S11, the surface of the user and the instrument is irradiated with the infrared spot pattern (three-dimensional dot sequence pattern), and the three-dimensional position detection unit 22 is on the two-dimensional image photographed by the video cameras 21a and 21b. The three-dimensional position distribution of the surface of the user and the instrument is detected from the position of the spot infrared light, and the three-dimensional position restoration unit 23 summarizes the three-dimensional position distribution of the surface of the user and the instrument detected for each partial infrared spot pattern. The three-dimensional position distribution of the surface of the user and the tool with respect to the entire infrared spot pattern is separated and restored, and the three-dimensional position distribution of the surface of the user and the tool is output to the posture estimation unit 24 to Is output to the previous position holding unit 26 and the change site detection unit 27.

次に、ステップS12において、姿勢推定部24は、3次元位置復元部23から出力されるユーザの表面の3次元位置分布と分布データベース25に記憶されている各姿勢の基準3次元位置分布との距離を算出し、距離差が最も小さい姿勢を現在のユーザの姿勢として推定する。同様に、姿勢推定部24は、3次元位置復元部23から出力される器具の表面の3次元位置分布と分布データベース25に記憶されている器具の各使用状態の基準3次元位置分布との距離を算出し、距離差が最も小さい使用状態を現在の器具の使用状態として推定する。   Next, in step S <b> 12, the posture estimation unit 24 compares the three-dimensional position distribution of the user's surface output from the three-dimensional position restoration unit 23 and the reference three-dimensional position distribution of each posture stored in the distribution database 25. The distance is calculated, and the posture with the smallest distance difference is estimated as the current user's posture. Similarly, the posture estimation unit 24 is a distance between the three-dimensional position distribution of the surface of the instrument output from the three-dimensional position restoration unit 23 and the reference three-dimensional position distribution of each use state of the instrument stored in the distribution database 25. And the use state with the smallest distance difference is estimated as the current use state of the appliance.

ここで、PiをモデルP(基準3次元位置分布)のi番目の3次元位置、Qjを現在の3次元パターン(3次元位置復元部23から出力される3次元位置分布)のj番目の点とすると、3次元位置P,Q間の距離は、下記式(10)により表され、本実施の形態では、この式を用いて上記の距離を算出している。   Here, Pi is the i-th three-dimensional position of the model P (reference three-dimensional position distribution), and Qj is the j-th point of the current three-dimensional pattern (three-dimensional position distribution output from the three-dimensional position restoring unit 23). Then, the distance between the three-dimensional positions P and Q is expressed by the following formula (10), and in the present embodiment, the above distance is calculated using this formula.

Figure 0004134147
Figure 0004134147

次に、ステップS13において、服装変化識別部28等は、下記のようにしてユーザの服装変化を検出し、衣服の種類を動作推定部30へ出力する。なお、着替え動作を行う可能性のない場所における動作推定処理では、ステップS13を省略してもよい。   Next, in step S <b> 13, the clothing change identification unit 28 or the like detects a user's clothing change as described below, and outputs the type of clothing to the motion estimation unit 30. Note that step S13 may be omitted in the motion estimation process in a place where there is no possibility of performing a change-over operation.

服装変化の識別を行う場合、例えば、ビデオカメラ21aは、ユーザを一方面(例えば、前面)から撮影し、ビデオカメラ21bは、ユーザを他方面(例えば、背面)から撮影する。3次元位置検出部22及び3次元位置復元部23は、各撮影方向のユーザの表面の3次元位置分布を検出して復元し、前回位置保持部26及び変化部位検出部27へ出力する。前回位置保持部26は、各撮影方向のユーザの表面の3次元位置分布を保持し、変化部位検出部27は、所定時間前の各撮影方向のユーザの表面の3次元位置分布を前回位置保持部26から読み出し、3次元位置復元部23から出力される現在の各撮影方向のユーザの表面の3次元位置分布と比較してユーザの服装の変化が生じた部位及びその増減方向を服装変化識別部28へ出力する。   When identifying clothes change, for example, the video camera 21a captures the user from one side (for example, the front side), and the video camera 21b captures the user from the other side (for example, the back side). The three-dimensional position detection unit 22 and the three-dimensional position restoration unit 23 detect and restore the three-dimensional position distribution on the surface of the user in each photographing direction, and output the restored three-dimensional position distribution to the previous position holding unit 26 and the change site detection unit 27. The previous position holding unit 26 holds the three-dimensional position distribution of the user's surface in each shooting direction, and the change site detection unit 27 holds the previous position of the three-dimensional position distribution of the user's surface in each shooting direction a predetermined time ago. The portion where the change in the user's clothes has occurred and the direction of the increase / decrease are identified as compared with the three-dimensional position distribution on the surface of the user in each current photographing direction output from the three-dimensional position restoration unit 23. To the unit 28.

図14は、図1に示す服装変化部位データベース29に記憶されている部位の一例を示す図である。図14の(a)に示す第1部位JAは、人体の上半身を覆う部位であり、上着を特定するために使用され、(b)に示す第2部位PAは、人体の下半身を覆う部位であり、ズボンを特定するために使用され、(c)に示す第3部位SAは、人体の下半身の上半分を覆う部位であり、スカートを特定するために使用される。このように衣服毎に対応する部位が、当該衣服と対応付けられて服装変化部位データベース29に予め記憶されている。   FIG. 14 is a diagram showing an example of a part stored in the clothing change part database 29 shown in FIG. The first part JA shown in (a) of FIG. 14 is a part that covers the upper half of the human body and is used to identify the outerwear, and the second part PA shown in (b) is a part that covers the lower half of the human body. The third part SA shown in (c) is a part covering the upper half of the lower body of the human body, and is used to specify the skirt. In this way, the part corresponding to each piece of clothing is stored in advance in the clothes change part database 29 in association with the clothes.

服装変化識別部28は、変化部位検出部27により検出された部位と服装変化部位データベース29に記憶されている各部位とを比較し、重なり合う部分が最も多い部位に対応付けられている衣服を変化の生じた衣服として決定する。また、服装変化識別部28は、変化部位検出部27により検出された3次元位置の増減方向を基準に、増加している場合は検出された部位が膨張しているため、識別した衣服を着ていると認識し、減少している場合は検出された部位が縮小しているため、識別した衣服を脱いでいると認識する。例えば、物体の表面の法線方向の移動量の外向きを正とし、その増減に応じ、すなわち物体の厚みの増減に関し、衣服の着脱を識別することができる。   The clothing change identification unit 28 compares the part detected by the change part detection unit 27 with each part stored in the clothes change part database 29, and changes the clothes associated with the part having the largest number of overlapping parts. It is determined as the clothes that produced. In addition, the clothing change identification unit 28 wears the identified clothing because the detected part is inflated when the three-dimensional position increases or decreases based on the increase / decrease direction of the three-dimensional position detected by the change part detection unit 27. If it is decreased, the detected part is reduced, so that it is recognized that the identified clothes are taken off. For example, it is possible to identify the attachment / detachment of clothes according to the increase / decrease of the movement amount in the normal direction of the surface of the object, that is, the increase / decrease of the thickness of the object.

このように、本処理では、撮影方向の異なる少なくとも2台のビデオカメラ21a,21bにより撮影された赤外光点の位置を基にユーザの前面及び背面の3次元位置分布が検出され、検出されたユーザの前面及び背面の3次元位置分布と所定時間前の当該部分の3次元位置分布とを比較して変化が生じた部位が検出され、検出された部位とユーザが装着する衣服毎に記録されている当該衣服の着脱により変化が生じる部位とを比較して変化が生じた衣服の種類を識別することができるので、ユーザが上着、ズボン、スカート等の衣服を着たり、脱いだりする着替え動作を高精度に検出することができる。   As described above, in this process, the three-dimensional position distribution of the front and rear surfaces of the user is detected and detected based on the positions of the infrared light spots captured by at least two video cameras 21a and 21b having different shooting directions. By comparing the three-dimensional position distribution of the front and back surfaces of the user with the three-dimensional position distribution of the relevant part before a predetermined time, a region where a change has occurred is detected and recorded for each detected region and each piece of clothing worn by the user. Compared with the parts that change due to the attachment and detachment of the clothes, it is possible to identify the type of clothes that have changed, so that the user wears or removes clothes such as jackets, pants, and skirts. The change of clothes operation can be detected with high accuracy.

次に、ステップS14において、動作推定部30は、推定されたユーザの姿勢、器具の使用状態及び衣服の種類と動作データベース31に記憶されている姿勢情報、使用状態情報及び衣服情報とを比較してユーザの現在の動作を推定する。   Next, in step S14, the motion estimation unit 30 compares the estimated posture of the user, the usage state of the appliance, and the type of clothing with the posture information, usage status information, and clothing information stored in the motion database 31. To estimate the user's current behavior.

次に、ステップS15において、動作推定部30は、推定した動作の次にユーザが行うべき動作に対して動作指示が必要であるか否かを判断し、動作指示が必要ないと判断した場合はステップS11以降の処理を繰り返し、動作指示が必要であると判断した場合は処理がステップ16へ移行される。   Next, in step S15, the motion estimation unit 30 determines whether or not an operation instruction is necessary for the operation to be performed by the user after the estimated operation, and when it is determined that no operation instruction is necessary. If the process after step S11 is repeated and it is determined that an operation instruction is necessary, the process proceeds to step 16.

動作指示が必要であると判断した場合、動作推定部30は、指示が必要な動作を特定して当該動作に対応付けられている動作指示情報をユーザに提示するように音声出力及び映像表示部32に指示し、音声出力及び映像表示部32は、動作推定部30により特定された動作に対応付けられている動作指示情報を動作指示情報データベース33から読み出し、読み出した動作指示情報を音声により再生するとともに、映像により表示し、その後、ステップS11以降の処理を繰り返す。   If it is determined that an operation instruction is necessary, the motion estimation unit 30 identifies the operation that requires the instruction and presents the operation instruction information associated with the operation to the user as an audio output and video display unit. 32, the audio output and video display unit 32 reads the operation instruction information associated with the operation specified by the operation estimation unit 30 from the operation instruction information database 33, and reproduces the read operation instruction information by sound. At the same time, the image is displayed, and then the processing after step S11 is repeated.

上記の処理により、本実施の形態では、撮影された赤外光点を用いた画像処理によりユーザの動作を推定しているので、ユーザに対して観測機器を非装着及び非接触の状態でユーザの動作を推定することができ、ユーザの負担を軽減することができる。また、複数のスポット赤外光を照射してその赤外光点を能動的に観測しているので、照明条件等のシーンに依存した要因に影響されることなく、ユーザの動作を安定的に推定することができる。さらに、ユーザの姿勢及び器具の使用状態毎に予め記憶されている基準3次元位置分布と比較してユーザの姿勢及び器具の使用状態を推定し、これらを基にユーザの動作を推定しているので、ユーザの動作を高精度に推定することができる。   With the above processing, in the present embodiment, the user's motion is estimated by image processing using the captured infrared light spot, and therefore the user is not wearing and not in contact with the observation equipment. Can be estimated and the burden on the user can be reduced. In addition, since the infrared light spot is actively observed by irradiating a plurality of spot infrared lights, the user's operation can be stably performed without being affected by scene-dependent factors such as lighting conditions. Can be estimated. Further, the user's posture and the usage state of the device are estimated by comparing with the reference three-dimensional position distribution stored in advance for each user's posture and the usage state of the device, and the user's operation is estimated based on these. Therefore, the user's operation can be estimated with high accuracy.

次に、図1に示す動作指示装置の検出精度について説明する。図15は、図1に示す動作指示装置の検出精度の測定結果を示す図である。本測定では、図1に示す動作指示装置を用いて実際の物体の3次元形状を測定し、実際の形状との誤差の平均値(Ave.)及び標準偏差(S.D.)を測定した。図15から、図1に示す動作指示装置では、X方向、Y方向及びZ方向ともに10cm以下の精度で3次元位置を正確に計測できることがわかった。   Next, the detection accuracy of the operation instruction device shown in FIG. 1 will be described. FIG. 15 is a diagram illustrating a measurement result of detection accuracy of the operation instruction device illustrated in FIG. 1. In this measurement, the three-dimensional shape of the actual object was measured using the motion instruction device shown in FIG. 1, and the average value (Ave.) and standard deviation (SD) of the error from the actual shape were measured. . From FIG. 15, it was found that the motion instruction apparatus shown in FIG. 1 can accurately measure the three-dimensional position with an accuracy of 10 cm or less in the X direction, the Y direction, and the Z direction.

次に、図1に示す動作指示装置を用いて実際の人間の3次元形状を再構築した。図16は、図1に示す動作指示装置による3次元形状の再構築例を示す図である。図16の(a)に示す人間の3次元形状を計測し、計測結果から3次元形状の再構築を行った結果、図16の(b)に示す3次元位置分布を得られ、人間の3次元形状を正確に再構築できることがわかった。   Next, an actual human three-dimensional shape was reconstructed using the motion instruction apparatus shown in FIG. FIG. 16 is a diagram illustrating an example of reconstruction of a three-dimensional shape by the operation instruction apparatus illustrated in FIG. As a result of measuring the three-dimensional shape of the person shown in FIG. 16A and reconstructing the three-dimensional shape from the measurement result, the three-dimensional position distribution shown in FIG. It was found that the dimensional shape can be accurately reconstructed.

次に、図1に示す動作指示装置を用いて移動する人間を追跡した。図17は、図1に示す動作指示装置を用いて追跡した人間の軌跡を示す図である。図17に示す人間の軌跡から、床上の人間の位置X−Yを正確に追跡できることがわかった。   Next, a moving person was tracked using the operation instruction device shown in FIG. FIG. 17 is a diagram showing a human trajectory tracked by using the motion instruction device shown in FIG. From the human trajectory shown in FIG. 17, it was found that the human position XY on the floor can be accurately tracked.

次に、図1に示す動作指示装置を用いて人間の姿勢を推定した。図18は、図1に示す動作指示装置を用いて人間の8種類の異なる姿勢に対する3次元位置分布を検出した結果を示す図であり、図19は、図1に示す動作指示装置を用いて人間の8種類の異なる姿勢を推定した結果を示す図である。   Next, the human posture was estimated using the motion instruction apparatus shown in FIG. 18 is a diagram illustrating a result of detecting a three-dimensional position distribution for eight different types of human poses using the motion instruction device illustrated in FIG. 1, and FIG. 19 is a diagram illustrating the motion instruction device illustrated in FIG. It is a figure which shows the result of having estimated eight types of different postures of humans.

図18の(a)は、人間が直立して前方を向いている姿勢STFを示し、(b)は、人間が直立して左方を向いている姿勢STLを示し、(c)は、人間が直立して右方を向いている姿勢STRを示し、(d)は、人間が着席して前方を向いている姿勢SIFを示し、(e)は、人間が着席して左方を向いている姿勢SILを示し、(f)は、人間が着席して右方を向いている姿勢SIRを示し、(g)は、人間が着替えをしている姿勢DRを示し、(h)は、人間が手を差し出している姿勢REを示し、それぞれの上段は人間の各姿勢を示す画像例であり、下段が各姿勢に対して検出された3次元位置分布例である。また、図19に示す結果は、48サンプルに対して各姿勢を推定した結果であり、各姿勢に対する認識比(%)を示している。図18及び図19から、各姿勢をほぼ高精度に推定できることがわかった。   18A shows a posture STF in which a human stands upright and faces forward, FIG. 18B shows a posture STL in which a human stands upright and faces left, and FIG. 18C shows a posture STF. Shows a posture STR that stands upright and faces right, (d) shows a posture SIF in which a human is seated and faces forward, and (e) shows a posture in which a human is seated and faces left. (F) shows a posture SIR in which a human is seated and faces right, (g) shows a posture DR in which a human is dressed, and (h) shows a human being Indicates postures RE in which a hand is put out, each upper row is an example of an image showing each posture of a human, and the lower row is an example of a three-dimensional position distribution detected for each posture. Moreover, the result shown in FIG. 19 is a result of estimating each posture with respect to 48 samples, and indicates a recognition ratio (%) for each posture. 18 and 19 that each posture can be estimated with high accuracy.

最後に、図1に示す動作指示装置を用いて人間の姿勢を連続的に観測した。図20は、図1に示す動作指示装置を用いて人間の姿勢を連続的に推定した結果を示す図である。図20の横軸は時間(フレーム)、縦軸は各フレームで推定された姿勢(実線)及び実際の姿勢(破線)を示している。図20から、人間が連続的に行動している場合でも、各姿勢を連続的にほぼ高精度に推定できることがわかった。   Finally, the human posture was continuously observed using the motion instruction device shown in FIG. FIG. 20 is a diagram illustrating a result of continuously estimating a human posture using the motion instruction device illustrated in FIG. 1. In FIG. 20, the horizontal axis indicates time (frame), and the vertical axis indicates the estimated posture (solid line) and the actual posture (broken line) in each frame. From FIG. 20, it was found that each posture can be estimated with high accuracy continuously even when a human is continuously acting.

このように、本実施の形態では、ユーザである被介護者の動きを追跡し、その動作を認識することができるので、日常生活(着替え、トイレの使用、入浴、洗顔等)におけるユーザの姿勢を推定してユーザの動作を推定し、推定されたユーザの動作に基づいてユーザに的確な指示を与えることができる。   In this way, in this embodiment, since the movement of the care recipient who is the user can be tracked and the movement can be recognized, the posture of the user in daily life (changing clothes, using the toilet, bathing, washing the face, etc.) Can be estimated to estimate the user's movement, and an appropriate instruction can be given to the user based on the estimated user's movement.

例えば、脳炎、頭部の傷、くも膜下出血、痴呆、小脳血管障害のような脳障害を受けた人々にはしばしば記憶障害が発生し、この記憶障害又は高度脳障害の人々が通常の生活を送るのは困難であり、これらの人々に対する恒常的なケア及び注意を払うことは家族の重荷となる。このような記憶障害者に対して本動作指示装置を用いることにより、記憶障害者の意図を自動的に検出して日常生活をサポートすることができる。また、本動作指示装置を用いてネットワーク型インタラクション治療を行う場合、介護者とのコミュニケーションが容易となって家族が適切な情報を得ることができるので、徘徊、失禁、癇癪等の行動的問題を家族が経験する前に、家族に快適な情報を提供することができ、家族のストレスを解放して負担を軽減することができる。   For example, people with brain disorders such as encephalitis, head wounds, subarachnoid hemorrhage, dementia, cerebellar vascular disorders often have memory impairment, and people with this or other severe brain disorders It is difficult to send, and constant care and attention to these people is a family burden. By using this operation instruction device for such a memory handicapped person, it is possible to automatically detect the intention of the memory handicapped person and support daily life. In addition, when network-type interaction treatment is performed using this operation instruction device, communication with the caregiver is facilitated and the family can obtain appropriate information. Before the family experiences, it is possible to provide comfortable information to the family and to release the stress of the family and reduce the burden.

なお、本実施の形態では、ユーザの姿勢とともに、器具の使用状態をも用いてユーザの動作を推定したが、この例に特に限定されず、ユーザの姿勢のみを用いてユーザの動作を推定する等の種々の変更が可能である。また、ユーザの3次元形状として、プロジェクタ11とビデオカメラ21a,21b等を用いてユーザの表面の3次元位置分布を検出したが、この例に特に限定されず、他の検出装置を用いてユーザの3次元形状を検出するようにしてもよい。また、プロジェクタ11とビデオカメラ21a,21b等を用いて器具の使用状態を推定したが、この例に特に限定されず、センサ等を用いて便器の蓋の開閉を検出する等の種々の変更が可能である。また、投影する光として赤外光を用いたが、この例に特に限定されず、自然光以外の光や他の波長を有する光を用いてもよい。   In this embodiment, the user's movement is estimated using the user's posture as well as the usage state of the appliance. However, the present invention is not particularly limited to this example, and the user's movement is estimated using only the user's posture. Various modifications such as these are possible. Further, as the user's three-dimensional shape, the three-dimensional position distribution on the user's surface is detected using the projector 11 and the video cameras 21a, 21b, etc., but the present invention is not particularly limited to this example, and the user is detected using another detection device. The three-dimensional shape may be detected. Moreover, although the use state of the appliance was estimated using the projector 11 and the video cameras 21a and 21b, etc., it is not particularly limited to this example, and various changes such as detection of opening / closing of the toilet lid using a sensor or the like are possible. Is possible. Moreover, although infrared light was used as light to project, it is not specifically limited to this example, Light other than natural light and light having other wavelengths may be used.

本発明の一実施の形態による動作指示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the operation | movement instruction | indication apparatus by one embodiment of this invention. 図1に示すプロジェクタとビデオカメラとの位置関係を説明するための模式図である。It is a schematic diagram for demonstrating the positional relationship of the projector and video camera which are shown in FIG. 図1に示すプロジェクタ及びビデオカメラの設置例を示す図である。It is a figure which shows the example of installation of the projector and video camera which are shown in FIG. 図1に示すプロジェクタ及びビデオカメラの他の設置例を示す図である。It is a figure which shows the other example of installation of the projector and video camera which are shown in FIG. 部分赤外線スポットパターンを作成する手順Pの一例を説明するための図である。It is a figure for demonstrating an example of the procedure P which produces a partial infrared spot pattern. 図5の(a)に示す行列Aから図5の(b)に示す行列Cを生成する手順Pを詳細に説明するための図である。It is a figure for demonstrating in detail the procedure P which produces | generates the matrix C shown to (b) of FIG. 5 from the matrix A shown to (a) of FIG. ユーザの輪郭を検出する際に使用するエッジ検出フィルタの一例を示す図である。It is a figure which shows an example of the edge detection filter used when detecting a user's outline. 赤外光点の検出結果の一例を示す図である。It is a figure which shows an example of the detection result of an infrared-light spot. 図1に示す動作指示装置の観測時の座標系を説明するための模式図である。It is a schematic diagram for demonstrating the coordinate system at the time of observation of the operation | movement instruction | indication apparatus shown in FIG. 赤外線スポットパターンの一例を示す模式図である。It is a schematic diagram which shows an example of an infrared spot pattern. 図1に示す動作指示装置による前処理を説明するための模式図である。It is a schematic diagram for demonstrating the pre-processing by the operation | movement instruction | indication apparatus shown in FIG. 図1に示す動作指示装置による追跡処理を説明するための模式図である。It is a schematic diagram for demonstrating the tracking process by the operation instruction apparatus shown in FIG. 図1に示す動作指示装置による動作指示処理を説明するためのフローチャートである。It is a flowchart for demonstrating the operation instruction | indication process by the operation instruction | indication apparatus shown in FIG. 図1に示す服装変化部位データベースに記憶されている部位の一例を示す図である。It is a figure which shows an example of the site | part memorize | stored in the clothing change site | part database shown in FIG. 図1に示す動作指示装置の検出精度の測定結果を示す図である。It is a figure which shows the measurement result of the detection accuracy of the operation instruction | indication apparatus shown in FIG. 図1に示す動作指示装置による3次元形状の再構築例を示す図である。It is a figure which shows the reconstruction example of the three-dimensional shape by the operation | movement instruction | indication apparatus shown in FIG. 図1に示す動作指示装置を用いて追跡した人間の軌跡を示す図である。It is a figure which shows the human locus | trajectory tracked using the operation | movement instruction | indication apparatus shown in FIG. 図1に示す動作指示装置を用いて人間の8種類の異なる姿勢に対する3次元位置分布を検出した結果を示す図である。It is a figure which shows the result of having detected the three-dimensional position distribution with respect to eight different postures of a human using the operation | movement instruction | indication apparatus shown in FIG. 図1に示す動作指示装置を用いて人間の8種類の異なる姿勢を推定した結果を示す図である。It is a figure which shows the result of having estimated eight types of different postures of the human using the motion instruction device shown in FIG. 図1に示す動作指示装置を用いて人間の姿勢を連続的に推定した結果を示す図である。It is a figure which shows the result of having estimated the human posture continuously using the operation instruction device shown in FIG.

符号の説明Explanation of symbols

11 プロジェクタ
12 投影パターン分割部
13 投影パターン生成部
21a,21b ビデオカメラ
22 3次元位置検出部
23 3次元位置復元部
24 姿勢推定部
25 分布データベース
26 前回位置保持部
27 変化部位検出部
28 服装変化識別部
29 服装変化部位データベース
30 動作推定部
31 動作データベース
32 音声出力及び映像表示部
33 動作指示情報データベース
DESCRIPTION OF SYMBOLS 11 Projector 12 Projection pattern division | segmentation part 13 Projection pattern production | generation part 21a, 21b Video camera 22 3D position detection part 23 3D position restoration part 24 Posture estimation part 25 Distribution database 26 Previous position holding part 27 Change part detection part 28 Clothes change identification Unit 29 Clothing change part database 30 Motion estimation unit 31 Motion database 32 Audio output and video display unit 33 Motion instruction information database

Claims (7)

ユーザの3次元形状をユーザに対して非接触で検出する検出手段と、
前記検出手段により検出されたユーザの3次元形状を基にユーザの動作を推定する推定手段と、
前記推定手段により推定されたユーザの動作を基にユーザが次に行うべき動作に関する指示をユーザに提示する提示手段とを備え
前記検出手段は、
ユーザに対して複数のスポット光を所定パターンで投影する投影手段と、
前記投影手段によりユーザの表面に投影された複数の光点を撮影する撮影手段と、
前記ユーザの3次元形状として、前記撮影手段により撮影された複数の光点の位置を基にユーザの表面の3次元位置分布を検出する位置検出手段とを含み、
前記投影手段は、
複数のスポット光を撮影画像上で互いに干渉しないスポット光群に分割する分割手段と、
前記分割手段により分割されたスポット光群毎にスポット光をユーザに対して投影する分割投影手段とを含み、
前記撮影手段は、前記分割投影手段によりスポット光群毎にユーザの表面に投影された複数の光点を撮影し、
前記位置検出手段は、前記撮影手段によりスポット光群毎に撮影された光点の位置を基にユーザの表面の3次元位置分布を検出することを特徴とする動作指示装置。
Detecting means for detecting the three-dimensional shape of the user without contact with the user;
Estimating means for estimating the user's movement based on the three-dimensional shape of the user detected by the detecting means;
Presenting means for presenting to the user an instruction regarding the next action to be performed by the user based on the user's action estimated by the estimating means ;
The detection means includes
Projecting means for projecting a plurality of spot lights in a predetermined pattern to the user;
Photographing means for photographing a plurality of light spots projected on the surface of the user by the projection means;
Position detection means for detecting a three-dimensional position distribution on the surface of the user based on the positions of a plurality of light spots photographed by the photographing means as the three-dimensional shape of the user;
The projection means includes
A dividing unit that divides a plurality of spot lights into spot light groups that do not interfere with each other on a captured image;
Divided projection means for projecting spot light to the user for each spot light group divided by the dividing means,
The photographing means photographs a plurality of light spots projected on the surface of the user for each spot light group by the divided projecting means,
The position detection means detects a three-dimensional position distribution of a user's surface based on the position of a light spot photographed for each spot light group by the photographing means .
前記推定手段は、
ユーザの姿勢毎にユーザの表面の基準3次元位置分布を予め記憶している分布記憶手段と、
前記位置検出手段により検出された3次元位置分布と前記分布記憶手段に記憶されている基準3次元位置分布とを比較してユーザの現在の姿勢を推定する姿勢推定手段と、
ユーザの動作毎に当該動作を構成するユーザの姿勢を表す姿勢情報を予め記憶している動作記憶手段と、
前記姿勢推定手段により推定されたユーザの姿勢と前記動作記憶手段に記憶されている姿勢情報とを比較してユーザの現在の動作を推定する動作推定手段とを含むことを特徴とする請求項記載の動作指示装置。
The estimation means includes
Distribution storage means for storing in advance a reference three-dimensional position distribution of the user's surface for each user posture;
Posture estimation means for comparing the three-dimensional position distribution detected by the position detection means and the reference three-dimensional position distribution stored in the distribution storage means to estimate the current posture of the user;
Action storage means for storing in advance posture information representing the posture of the user constituting the action for each user action;
Claim 1, characterized in that it comprises a motion estimation means for estimating a current operation of the user by comparing the orientation information stored in the posture and the operation storage unit of the user estimated by the position estimation means The operation instruction device described.
前記分布記憶手段は、さらに、ユーザが使用する器具毎に当該器具の使用時の基準3次元位置分布を予め記憶し、
前記姿勢推定手段は、さらに、前記位置検出手段により検出された器具の3次元位置分布と前記分布記憶手段に記憶されている器具の基準3次元位置分布とを比較して器具の使用状態を推定し、
前記動作記憶手段は、さらに、ユーザの動作毎に当該動作と関連する器具の使用状態を表す使用状態情報を予め記憶し、
前記動作推定手段は、前記姿勢推定手段により推定されたユーザの姿勢及び器具の使用状態と前記動作記憶手段に記憶されている姿勢情報及び使用状態情報とを比較してユーザの現在の動作を推定することを特徴とする請求項記載の動作指示装置。
The distribution storage means further stores in advance a reference three-dimensional position distribution at the time of use of the appliance for each appliance used by the user,
The posture estimation means further estimates the use state of the appliance by comparing the three-dimensional position distribution of the appliance detected by the position detection means with the reference three-dimensional position distribution of the appliance stored in the distribution storage means. And
The operation storage means further stores in advance usage state information representing the usage state of the appliance associated with the operation for each user operation,
The motion estimation unit estimates the current motion of the user by comparing the posture of the user and the usage state of the appliance estimated by the posture estimation unit with the posture information and the usage state information stored in the motion storage unit. The operation instruction device according to claim 2, wherein:
前記位置検出手段は、検出した3次元位置分布を基にユーザの観測位置を検出し、
前記投影手段は、前記位置検出手段により検出されたユーザの観測位置に応じてスポット光の位置を補正することを特徴とする請求項2〜のいずれかに記載の動作指示装置。
The position detection means detects a user's observation position based on the detected three-dimensional position distribution,
It said projection means, the operation instruction apparatus according to any one of claims 2-3, characterized in that to correct the position of the spot light in accordance with the observation position of the user detected by the position detecting means.
前記撮影手段は、前記投影手段によりユーザの表面に投影された複数の光点を互いに異なる撮影方向から撮影する第1及び第2の撮影手段を含み、
前記位置検出手段は、前記第1及び第2の撮影手段により撮影された複数の光点の位置を基にユーザの異なる表面の3次元位置分布を検出し、
前記位置検出手段により検出されたユーザの異なる表面の3次元位置分布を保持する保持手段と、
前記位置検出手段により検出されたユーザの異なる表面の3次元位置分布と前記保持手段に保持されている所定時間前のユーザの異なる表面の3次元位置分布とを比較してユーザの表面に変化が生じた部位を検出する部位検出手段と、
ユーザが装着する衣服毎に当該衣服の着脱によりユーザの表面に変化が生じる部位を予め記憶している衣服記憶手段と、
前記部位検出手段により検出された部位と前記衣服記憶手段に記憶されている部位とを比較して変化が生じた衣服の種類を識別する識別手段とをさらに備え、
前記動作推定手段は、前記識別手段により識別された衣服の種類をも考慮してユーザの着替え動作を推定することを特徴とする請求項2〜のいずれかに記載の動作指示装置。
The photographing means includes first and second photographing means for photographing a plurality of light spots projected on the surface of the user by the projecting means from different photographing directions,
The position detecting means detects a three-dimensional position distribution of different surfaces of the user based on the positions of a plurality of light spots imaged by the first and second imaging means;
Holding means for holding a three-dimensional position distribution of different surfaces of the user detected by the position detecting means;
The three-dimensional position distribution of the different surface of the user detected by the position detecting means is compared with the three-dimensional position distribution of the different surface of the user held by the holding means before a predetermined time, and the user's surface changes. Site detection means for detecting the site that has occurred,
Clothing storage means for storing in advance a site where a change occurs on the surface of the user due to attachment / detachment of the clothing for each clothing worn by the user;
An identification means for comparing the part detected by the part detection means and the part stored in the clothes storage means to identify the type of clothes that have changed,
The motion instruction device according to any one of claims 2 to 4 , wherein the motion estimation unit estimates a user's dressing motion in consideration of the type of clothes identified by the identification unit.
前記投影手段は、赤外光を用いてユーザに対して複数のスポット光を所定パターンで投影し、
前記撮影手段は、前記投影手段によりユーザの表面に投影された複数の赤外光点を撮影することを特徴とする請求項のいずれかに記載の動作指示装置。
The projection means projects a plurality of spot lights in a predetermined pattern to the user using infrared light,
The imaging means, the operation instruction apparatus according to any one of claims 1 to 5, characterized in that to shoot a plurality of infrared light spot projected on the surface of the user by the projection means.
前記提示手段は、前記検出手段により検出されたユーザの動作を基にユーザが次に行うべき動作を音声の出力又は映像の表示によりユーザに指示することを特徴とする請求項1〜のいずれかに記載の動作指示装置。 It said presenting means any of claims 1-6, characterized in that direct the operation which a user should do next based on the operation of the user detected by the detecting means to the user by the display of the audio output or video The operation instruction device according to any one of the above.
JP2005320767A 2005-11-04 2005-11-04 Operation instruction device Expired - Fee Related JP4134147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005320767A JP4134147B2 (en) 2005-11-04 2005-11-04 Operation instruction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005320767A JP4134147B2 (en) 2005-11-04 2005-11-04 Operation instruction device

Publications (2)

Publication Number Publication Date
JP2007128307A JP2007128307A (en) 2007-05-24
JP4134147B2 true JP4134147B2 (en) 2008-08-13

Family

ID=38150915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005320767A Expired - Fee Related JP4134147B2 (en) 2005-11-04 2005-11-04 Operation instruction device

Country Status (1)

Country Link
JP (1) JP4134147B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650624B (en) * 2008-08-13 2012-07-18 英属维京群岛速位互动股份有限公司 Operation controller of graphical user interface
WO2015186436A1 (en) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
JP6575795B2 (en) * 2015-03-11 2019-09-18 パナソニックIpマネジメント株式会社 Human detection system
JP7032752B2 (en) * 2017-01-31 2022-03-09 株式会社木村技研 Projection system and projection method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0560529A (en) * 1991-09-05 1993-03-09 Matsushita Electric Ind Co Ltd Height measuring device
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method
JP2005242759A (en) * 2004-02-27 2005-09-08 National Institute Of Information & Communication Technology Action/intention presumption system, action/intention presumption method, action/intention pesumption program and computer-readable recording medium with program recorded thereon

Also Published As

Publication number Publication date
JP2007128307A (en) 2007-05-24

Similar Documents

Publication Publication Date Title
JP6690041B2 (en) Method and device for determining point of gaze on three-dimensional object
CA2996918C (en) Determination of a currently treated body portion of a user
CN105283129B (en) Information processor, information processing method
JP6731600B2 (en) Attitude estimation device, attitude estimation system, attitude estimation method, attitude estimation program, and computer-readable recording medium recording the attitude estimation program
JP6619927B2 (en) Calibration device
JP2012120647A (en) Posture detection system
CN107925748A (en) Display control unit, display control program, display control method, display control program, recording medium
JP2018533775A (en) Device and method for determining the position of a mobile device with respect to a subject
JP4936491B2 (en) Gaze direction estimation apparatus, gaze direction estimation method, and program for causing computer to execute gaze direction estimation method
JP4134147B2 (en) Operation instruction device
CN106104630A (en) Detection equipment, detection method and record medium
US20230005154A1 (en) Apparatus, method and computer program for monitoring a subject during a medical imaging procedure
JP5300694B2 (en) Detection device
KR101818005B1 (en) Apparatus and Method for Managing Face Data
JP4319628B2 (en) Object posture estimation device
JP2018163481A (en) Face recognition device
CN111448589B (en) Device, system and method for detecting body movement of a patient
CN114375177A (en) Body measurement device and control method thereof
JP2010045501A (en) Image monitoring device
EP3865067A1 (en) Patient model estimation from camera stream in medicine
JP2008148237A (en) Posture detecting device
JP4682372B2 (en) Gaze direction detection device, gaze direction detection method, and program for causing computer to execute gaze direction detection method
US20210004968A1 (en) Method and device for determining the amplitude of a movement performed by a member of an articulated body
JP3711053B2 (en) Line-of-sight measurement device and method, line-of-sight measurement program, and recording medium recording the program
JP2006215743A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees